克里斯:这件事应该会令你着迷,艾美。AI正变得越来越智能。具备AI功能的机器在什么时候获得意识并且变得有自我意识呢?这是否有可能值得商榷呢?如果AI功能的机器真的有意识了,那么这些AI实体有法律权利吗?我们应该给予他们公民身份吗?
艾美:你说得对,克里斯。我不禁对这些问题的答案感兴趣。但更大的问题是,我们如何保持对日益复杂的智能系统或全球智能网络的控制?你指出的那些是生命未来研究所在23条阿希洛马原则中提出的一些问题,该原则由3800多名人工智能专家和领袖(如史蒂芬·霍金和埃隆·马斯克)签署。它们的目的是指导安全AI的发展,涉及AI研究、伦理和价值观,以及更长远的问题。13
克里斯:通常,我们会假设AI是某种超级智能或不会出错的机器。AI做出的决策是建立在学习的基础上的,如果学习不正确,那么决策就可能是错误的。我们如何防范这种突发事件呢?
艾美:AI的智能是基于它所学习的东西而产生偏差的。但另一个问题是,机器如何影响人类的行为和社会互动?即使在今天,你也能看到AI在Facebook和LinkedIn等社交媒体平台上产生的影响。当AI无处不在,其行为又无法识别,甚至优于人类时,我们该怎么办?