首页 中国小康网 小康论坛 卡乐图片网 小康视频 小康直播 加入收藏 设为首页
  2016年05月《小康▪财智》下旬刊
  栏目:特别策划
被误读的智能机器人

★文 /胡柯

误读二:智能机器人不会犯错误

  牛津大学人类未来研究所的Peter Mcintyre和Stuart Armstrong认为人工智能将很大程度上依赖其程序锁定。他们不相信人工智能不会犯错误,或者反过来他们没有聪明到可以理解我们希望他们能做什么。
  McIntyre说:“从定义上讲,人工智能就是一个在方方面面都比最聪明的人脑要更为聪明的智慧载体”。“它将会完全知道我们设计他们来做什么”。McIntyre和Armstrong相信人工智能将只会做其程序编写的任务,但如果它足够聪明的话,它会最终理解法律的精髓和人文的意义。
  McIntyre将人类将来可能面临的困境和老鼠所面临的困境做了比较。老鼠将会不停寻求食物和住所,但它们的目标跟人类不想与老鼠共栖一室的目标始终是相互冲突的。他说“正如我们完全能理解老鼠为什么要钻进我们的屋子里、但仍然不能忍受与老鼠一起生活一样,即使人工智能系统理解我们的目标和我们想要什么,他们仍然会觉得我们的目标无关紧要。”
  误读三:机器人不安全
  2015年7月,德国大众工厂层发生一件遗憾的机器人“杀人”事件。
  根据德国大众汽车发言人的说法,一名男性技术人员在安装机器人时受到机器人撞击,再被压在铁板上伤重而亡。这台机器人并未出现技术故障,初步结论显示“人为错误是事故的罪魁祸首”。
  之后,专家对机器人的行为进行了解释,专家表示,外界混淆了传统机器人与人工智能机器人的概念,在看得见的未来,人工智能的整体水平难以超越人类智能。
  其实,细数整个机器人行业的发展,类似的事故并不是个案,机器人在使用的过程中必定存在各种各样的问题,但是真的因为机器人导致命案的事故却很少。数据显示,有一半以上的机器人事故都是因为人为操作的原因引发的故障。
  人工智能经过60年的发展已取得巨大进步,如今呈现出爆发增长趋势。机器人热必然引发安全性担忧。物理学家霍金、微软创始人比尔·盖茨、特斯拉电动汽车CEO马斯克等均在不同场合表达关切,资助研究“懂得伦理道德的机器人”。

  也有专家指出,安全事故与操作人员安全意识淡薄和违反正确操作不无关系,未来,随着规范的建立,智能机器人将越来越安全。

 
编辑:容与
来源:小康杂志
发布时间:2016-05-30


2016年01月(《小康▪财智》下旬刊)


2016年02月(《小康▪财智》下旬刊)


2016年03月(《小康▪财智》下旬刊)


2016年04月(《小康▪财智》下旬刊)