地 址:缙云
电 话:0781-986823
网址:globalbizcoach.com
邮 箱:changlixian4363@126.com
原标题:如何不让我训练的让训AI杀了我自己 ?一文读懂
大家也许还有印象,近期一则关于人工智能的杀自恐怖“新闻”:在美军进行的一次模拟测试中 ,一架搭载了AI技术的己文无人机出现了异常 ,它认为操作员下达的读懂“不许攻击”的命令是阻碍它完成任务,开头攻击人类操作员 ,让训以确保其可以更加高效地执行既定任务。杀自
机器人杀人了?丨Giphy
后来被证明 ,己文这仅仅是读懂一段被添油加醋的社交网络讹传。
类似的让训案例曾经更多地出现在科幻作品里:经典科幻电影《2001 :太空漫游》中,人工智能HAL发狂并且杀死人类宇航员的杀自缘故,就是己文因而它推导出 ,人类宇航员会阻碍它完成任务 。读懂
HAL杀死人类,让训因而它推导出人类会阻碍它完成任务丨Giphy
但这些幻想作品中的杀自恐慌越来越多地开头映射到了现实当中 。GPT-4的己文出现 ,让AI前所未有地逼近人类。一点儿人工智能专家甚至认为 : 超越人类的强人工智能的出现 ,不过是未来10-20年内就会发生的事情。要是真的如此 ,这种涉及人类生死存亡的问题 ,就变得极为紧迫。
那么我们能不能找到一个方法 ,确保人工智能能够安全地为人类所使用,不会伤害人类 ?
阿西莫夫的遗产
在虚构故事里 ,问题的答案在80年前就已经出现:这就是阿西莫夫在著名的《我,机器人》里提出的 “机器人三大定律”——这可以说是最早的人工智能安全和伦理学讨论 。
《我 ,机器人》丨wikipedia
我们在这里复述一下三定律:
第必定律:机器人不得伤害人类,或坐视人类受到伤害;
第二定律:机器人必须服从人类命令 ,除非命令与第必定律发生冲突;
第三定律 :在不违背第一或第二定律的情况下,机器人必须保护自己。
这三条定律就是一个相当严密的 ,对于人工智能的限制和规定。它将人工智能置于一个完全服从人类,并且不得伤害人类的情境下 。
如何将抽象的道德观念灌输给神经网络丨Giphy
那么下一个问题自然是——我们如何将这三大定律变成代码,嵌入到我们现有的人工智能程序里面?是不是有了这三大定律,我们就能高枕无忧了?
阿西莫夫写的是科幻小说,自然不用操心“如何实现”这个问题。在“机器人”系列的设定中 ,机器人的技术基础是“正电子脑” ,一种跟现有的集成电路完全不同的计算机架构,有了正电子脑,机器人才成为可能 。但是在现实世界里