68机器人-傻强机器人是真的吗机器人本体我看超级人工智能可爱照顾老人的机器人ai人工智能机器人机器人自动化生产线波士顿机器人迎宾机器人

人工智能机器人

当前位置:主页 > 家居机器人 > AI的应用:人工智能技术的道德评判标准

AI的应用:人工智能技术的道德评判标准

2019-02-08 14:5368机器人网编辑:南方发布人气:


人工智能技术(AI)和机器人领域面临着重要的伦理决策:是否赞成或反对致命自治武器系统(LAWS)的发展。
 
技术已达到这样的程度,即在几年内,而不是几十年内,这种系统的部署 - 实际上即使不合法 - 也是可行的。风险很高:在火药和核武器之后,LAWS 被描述为战争的第三次革命。
自主武器系统在没有人为干预的情况下选择和参与目标 当这些目标包括人类时,它们会变得致命。例如,LAWS 可能包括可以搜索和消灭城市中敌方战斗员的武装四轴飞行器,但不包括巡航导弹或遥控无人机,人类可以为此做出所有目标决定。
 
现有的 AI 和机器人组件可以提供物理平台,感知,电机控制,导航,绘图,战术决策和长期规划。他们只需要结合起来。例如,已经为自动驾驶汽车展示的技术,以及由 DeepMind 的 DQN 系统学习的类似人类的战术控制,可以支持城市搜索和销毁任务。
两个美国国防部高级研究计划局(DARPA)计划预示着计划使用 LAWS:快速轻量级自治(FLA)和拒绝环境中的协作操作(CODE)。FLA 项目将对微型旋翼机进行编程,以便在城市地区和建筑物内部高速独立操纵。CODE 旨在开发自主飞行器团队,在敌人信号干扰无法与人类指挥官通信的情况下执行“罢工任务的所有步骤 - 发现,修复,跟踪,瞄准,参与,评估”。其他国家可能正在寻求具有类似目标的秘密计划。
 
国际人道法 - 在战争时期管理对人类的攻击 - 对这种自治没有具体规定,但可能仍然适用。1949 年关于战争人道行为的日内瓦公约要求任何攻击都要满足三个标准:军事必要性; 战斗人员与非战斗人员之间的歧视; 军事目标的价值与附带损害的可能性之间的相称性。(同样相关的是马丁斯条款,1977 年加入,禁止违反“人性原则和公众良知的指令”的武器。)这些是当前人工智能系统难以或不可能满足的主观判断。
 
联合国在瑞士日内瓦的“特定常规武器公约”(CCW)的主持下举行了一系列关于 LAWS 的会议。在几年内,这一进程可能导致制定一项限制或禁止自主武器的国际条约,就像 1995 年的激光武器一样; 或者它可以留下现状,不可避免地导致军备竞赛。
作为一名人工智能专家,我被要求为 4 月举行的“特定常规武器公约”下的第三次重要会议提供专家证词,并听取了各国和非政府组织的发言。一些国家要求立即禁止。德国表示,它“不会接受生死决定仅由自治系统决定”; 日本表示,它“没有计划开发机器人,而人类可能会犯下谋杀罪”(见 go.nature.com/fwric1)。
 
美国,联合王国和以色列 - 领导制定 LAWS 技术的三个国家 - 表示条约是不必要的,因为它们已经拥有确保遵守国际法的内部武器审查程序。
 
几乎所有加入“特定常规武器公约”的国家都同意对机器人武器制定的目标和参与决策进行“有意义的人为控制”的必要性。不幸的是,“有意义”的含义仍有待确定。
 
辩论有很多方面。一些人认为,自主武器的卓越效力和选择性可以通过仅针对战斗人员来最大限度地减少平民伤亡。其他人则坚持认为,LAWS 可以通过在没有直接风险的情况下攻击敌人来降低发动战争的门槛; 或者他们将使恐怖分子和非国家一致的战斗人员对平民造成灾难性破坏。
 
LAWS 可以通过允许机器选择杀人来违反人类尊严的基本原则 - 例如,他们的任务可能是消除任何表现出'威胁行为'的人。对于人权组织和无人机制造商而言,LAWS 技术潜入和平时期警务职能的潜力是显而易见的。
 
在我看来,最重要的问题应该是这种技术轨迹的可能终点。自动武器的能力将受到物理定律的限制 - 例如,通过对射程,速度和有效载荷的限制 - 而不是控制它们的 AI 系统中的任何缺陷。例如,随着飞行机器人变小,它们的机动性增加并且它们的目标能力降低。它们的射程较短,但它们必须足够大才能携带致命的有效载荷 - 也许是一克一克的电荷刺穿人体头盖骨。尽管物理学所施加的限制,人们可以预期数百万的平台,其灵活性和杀伤力将使人类完全没有防御能力。这不是一个理想的未来。
 
以其专业社团为代表的人工智能和机器人科学界有义务采取立场,就像物理学家在使用核武器,化学家使用化学制剂和生物学家在战争中使用疾病因子一样。应在科学会议上组织辩论; 伦理委员会研究的论点; 为社会出版物撰写的立场文件; 和社团成员的选票。什么都不做就是投票支持继续开发和部署。
Sabine Hauert:塑造辩论,不要害羞
布里斯托大学机器人学讲师
 
一些研究人员已经停止了与机器人和人工智能(AI)的恐惧或过度预期的大肆宣传,一些研究人员已经停止与媒体或公众进行沟通。
 
但我们不能脱离接触。公众包括纳税人,政策制定者,投资者以及可以从该技术中受益的人。他们听到一个大多片面的讨论,他们担心机器人会接受他们的工作,担心 AI 会造成存在的威胁,并且想知道是否应该通过法律来保持假设技术“受到控制”。我和我的同事们共进晚餐,解释说我们不是邪恶的,而是多年来一直致力于开发能够帮助老年人,改善医疗保健,让工作更安全,更有效率的系统,让我们探索太空或海洋之下。
专家需要成为使者。通过社交媒体,研究人员有一个公共平台,他们应该用它来推动平衡的讨论。我们可以谈论最新的发展和局限,提供全局并揭开技术的神秘面纱。我已经使用社交媒体来众包设计蜂巢纳米机器人以治疗癌症。我通过他的纳米医学博客找到了我的第一个博士生。
 
人工智能和机器人社区需要思想领袖,他们可以与物理学家斯蒂芬霍金和企业家发明人埃隆马斯克等着名评论家进行交流,并在瑞士达沃斯世界经济论坛等国际会议上制定议程。公众参与也推动了资金。为剑桥麻省理工学院(麻省理工学院)Cynthia Breazeal 开发的家用个人机器人 JIBO 筹集资金超过 220 万美元。
 
有障碍。首先,许多研究人员从未发过推特,博客或制作 YouTube 视频。其次,外展是“另一件事要做”,时间有限。第三,建立社交媒体可能需要数年才能使努力变得有价值。第四,参与工作在研究评估中很少被重视,或者权属委员会认真对待。
 
需要培训,支持和激励措施。这三个都是由 Robohub.org 提供的,其中我是联合创始人兼总裁。Robohub 于 2012 年推出,致力于将机器人社区与公众联系起来。我们在主要人工智能和机器人会议上提供有关如何有效和高效地使用社交媒体的科学传播速成课程。我们邀请专业的科学传播者和记者帮助研究人员准备一篇关于他们工作的文章。传播者解释如何塑造信息以使其清晰简洁并避免陷阱,但我们确保研究人员推动故事并控制最终结果。我们还带上摄像机,并要求在会议上发表演讲的研究人员在五分钟内向公众宣传他们的作品。结果会上传到 YouTube。
我可以列出科学传播的所有好处,但激励必须来自资助机构和研究所。引用不能成为奖学金和学术进步成功的唯一标准; 我们还必须重视股票,观点,评论或喜欢。麻省理工学院的机器人技术研究人员布鲁克斯的经典 1986 年论文的“包容结构”,一个生物启发的方式来编程机器人所处的环境做出反应,在 30 年(聚集近万引用 R.布鲁克斯 IEEE J.机器人,自动售货机。 2,14 - 23 ; 1986)。由 Brooks 公司 Rethink Robotics 开发的机器人 Sawyer 的视频在一个月内收到了超过 60,000 次观看(参见 go.nature.com/jqwfmz)。哪个对今天的公共话语产生了更大的影响?
 
政府,研究机构,商业发展机构以及研究和行业协会都欢迎并资助外展和科学传播工作。但是每个项目都制定了自己的战略,导致沟通范围很小。
 
在我看来,全世界的人工智能和机器人利益相关者应该将其预算的一小部分(比如 0.1%)汇集起来,将这些脱节的通信结合在一起,使得该领域能够更大声地说话。特殊利益集团,如正在推动美国商用无人机市场的小型无人机联盟,正在将大公司的利益推向监管机构。在公共领域,很少有人共同努力促进机器人技术和人工智能研究。非常需要这种平衡。
 
一种共同的沟通策略将赋予新一代机器人专家权力,这些机器人专家与公众有着深刻的联系,能够在讨论中保持自己的地位。如果我们要反击媒体炒作并防止误解推动观念,政策和资金决策,这一点至关重要。
 
Russ Altman:公平分配 AI 的好处
斯坦福大学生物工程,遗传学,医学和计算机科学教授
 
人工智能(AI)具有惊人的潜力,可以加速生物学和医学的科学发现,并改变医疗保健。人工智能系统有望帮助理解几种新型数据:来自“组学”的测量,如基因组学,蛋白质组学和代谢组学; 电子健康记录; 和数字传感器监测健康标志。
 
聚类分析可以定义新的综合症 - 将被认为相同的疾病分开,并统一具有相同潜在缺陷的其他疾病。模式识别技术可以将疾病状态与最佳治疗相匹配。例如,我和我的同事正在确定可能对基于临床和转录组学特征调节免疫系统的药物有反应的患者群体。
 
在咨询中,医生可能能够显示来自患者的“虚拟队列”的数据,这些患者与坐在他们旁边的患者相似,并用它来衡量诊断,治疗选择和结果统计。他们可以使用这样的系统以交互方式做出医疗决策,或者使用模拟来根据患者的数据和虚拟队列的数据来预测结果。
我有两个问题。首先,人工智能技术可能会加剧现有的医疗保健差异,并创造新的技术差异,除非它们以允许所有患者受益的方式实施。例如,在美国,没有工作的人经历了不同程度的照顾。一个双层制度,只有特殊群体或能够支付 - 而不是穷人 - 才能获得先进决策制度的好处,这是不公正和不公平的。政府和开发技术并支持研究的人员共同负责确保人工智能技术的平等分配。
 
其次,我担心临床医生能够理解和解释高性能 AI 系统的输出。大多数医疗保健提供者不会接受来自决策支持系统的复杂治疗建议,而没有明确说明如何以及为何达到这一建议。
 
不幸的是,人工智能系统越好,解释起来就越难。有助于基于概率的评估(如贝叶斯分析)的特征很容易呈现; 深度学习网络,不那么重要。
 
为这些系统创建基础设施和技术能力的 AI 研究人员需要让医生,护士,患者和其他人了解如何使用和公平使用这些系统。
 
Manuela Veloso:拥抱机器人 - 人类世界
卡内基梅隆大学计算机科学教授
 
人类无缝地融合了感知,认知和行动。我们使用传感器来评估世界状况,思考和选择行动来实现目标,以及我们执行这些行动的机构。我的研究小组正在尝试制造能够做到这一点的机器人 - 使用人工传感器(摄像头,麦克风和扫描仪),算法和执行器来控制机制。
 
但是自主机器人和人类的能力差别很大。机器人可能总是具有感知,认知和动作限制。他们可能无法完全感知场景,识别或操纵任何物体,理解所有语言或书面语言,或在任何地形中导航。我认为机器人会补充人类,而不是取代它们。但是机器人需要知道何时寻求帮助以及如何表达他们的内部运作。
为了更多地了解机器人和人类如何协同工作,过去三年来,我们与我们开发的四个协作机器人或 CoBots 共享了我们的实验室和建筑物。机器人看起来有点像机械讲台。它们具有全向轮,使其能够在障碍物周围平稳地转向; 相机和激光雷达系统提供深度视觉; 电脑加工; 通讯屏幕; 和一个篮子里面的东西。
 
在早期,我们意识到真实环境对机器人的挑战性。CoBots 无法识别他们遇到的每个对象; 他们缺乏武器或手,他们很难打开门,拾起东西或操纵它们。虽然他们可以使用语言进行交流,但他们可能无法识别或理解回答中所说的话语的含义。
 
我们引入了“共生自治”的概念,使机器人能够向人类或互联网寻求帮助。现在,我们建筑物中的机器人和人类互相帮助,克服了彼此的局限。
 
CoBots 护送游客穿过建筑物或在不同地点之间携带物品,沿途收集有用的信息。例如,他们可以生成准确的空间地图,显示温度,湿度,噪音和光照水平,或 WiFi 信号强度。我们帮助机器人打开门,按下提升按钮,拾取物体并通过说明进行对话。
 
要使机器人和人类安全和富有成效地共存,仍然需要克服障碍。我的团队正在研究人和机器人如何通过语言和手势更轻松地进行沟通,以及机器人和人们如何更好地匹配他们对象,任务和目标的表现。
 
我们还在研究机器人外观如何增强相互作用,特别是指示灯如何向人类揭示更多机器人的内在状态。例如,如果机器人很忙,它的灯可能是黄色的,但是当它可用时它们是绿色的。
(来源:未知)




  • 凡本网注明"来源:68机器人网的所有作品,版权均属于中68机器人网,转载请必须注明中68机器人网,http://www.68jqr.com。违反者本网将追究相关法律责任。
  • 本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
  • 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。





图说新闻

更多>>
我们究竟为什么需要智能机器人本体:人工智能

我们究竟为什么需要智能机器人本体:人工智能


返回首页