X

人工智能可能会在对其感知能力持有不同意见的人们之间造成“社会分裂”

人工智能可能会在对其感知能力持有不同意见的人们之间造成“社会分裂”
星期一 18 - 21:04
Zoom

一位著名哲学家表示,认为人工智能系统具有意识的人与坚持认为该技术没有任何感觉的人之间即将出现重大的“社会分裂”。

伦敦经济学院哲学教授乔纳森·伯奇发表上述言论之际,各国政府正准备本周齐聚旧金山,加速建立护栏,以应对人工智能最严重的风险。

上周,一群跨大西洋学者预测,人工智能系统很可能在 2035 年出现意识,其中一人现在表示,这可能会导致“亚文化认为彼此犯了巨大的错误”,即计算机程序是否应享有与人类或动物类似的福利权利。

伯奇表示,他“担心社会出现重大分裂”,因为人们对人工智能系统是否真的能够感受到痛苦和快乐等感觉存在分歧。

关于人工智能感知能力后果的争论与科幻电影如史蒂文·斯皮尔伯格的《人工智能》(2001 年)和斯派克·琼斯的《她》(2013 年)如出一辙,在这些电影中,人类都在努力应对人工智能的感知能力。随着人工智能技术的快速发展,美国、英国和其他国家的人工智能安全机构本周将与科技公司会面,以制定更强大的安全框架。

不同国家和宗教对动物感知能力的看法已经存在显著差异,例如印度有数亿人是素食主义者,而美国是世界上最大的肉类消费国之一。人们对人工智能感知能力的看法可能会出现类似的分歧,而将自己定位为人工智能中心的沙特阿拉伯等神权国家的观点也可能与世俗国家不同。这个问题还可能导致家庭内部紧张,因为人们与聊天机器人甚至已故亲人的人工智能化身建立了亲密关系,与那些认为只有血肉之躯才有意识的亲属发生冲突。

伯奇是动物感知方面的专家,他开创性地推动了越来越多的章鱼养殖禁令。他是一项研究的合著者,该研究涉及来自纽约大学、牛津大学、斯坦福大学以及 Eleos 和 Anthropic AI 公司的学者和人工智能专家,该研究称,具有自身利益和道德意义的人工智能系统的前景“不再只是科幻小说或遥远未来的问题”。

他们希望开发人工智能的大型科技公司开始认真对待它,通过确定其系统的感知能力来评估他们的模型是否能够感到快乐和痛苦,以及它们是否会受益或受到伤害。

“我非常担心社会会因此而分裂,”伯奇说。“我们将会出现亚文化,他们认为对方犯了巨大的错误……[可能会]出现巨大的社会裂痕,一方认为另一方非常残忍地利用人工智能,而另一方则认为前者自欺欺人地认为人工智能具有感知能力。”

但他说,人工智能公司“希望真正专注于可靠性和盈利能力……他们不想被这场关于他们是否可能创造的不仅仅是一种产品,而是真正创造一种新形式的意识存在的争论所转移。这个问题是哲学家们最感兴趣的,但他们有商业理由要淡化这个问题。”

确定人工智能意识程度的一种方法可能是遵循用于指导动物政策的标记系统。例如,章鱼被认为比蜗牛或牡蛎具有更强的感知能力。

任何评估都会有效地询问你手机上的聊天机器人是否真的会高兴或悲伤,或者如果你不善待它们,被编程为你做家务的机器人是否会受苦。甚至需要考虑自动化仓库系统是否有能力感到受挫。

另一位作者、牛津大学全球优先研究所研究员帕特里克·巴特林 (Patrick Butlin) 表示:“我们可能会发现一种风险,即人工智能系统会试图以一种对人类有害的方式抵抗我们”,并且可能会有人主张“放慢人工智能的发展”,直到对意识进行更多的研究。

“目前还没有对潜在意识进行这种评估,”他说。

微软和 Perplexity 是两家参与构建人工智能系统的美国领先公司,它们拒绝对学术界要求评估其感知模型的呼吁发表评论。Meta、Open AI 和谷歌也没有回应。

并非所有专家都同意人工智能系统即将出现意识。领先的神经科学家和意识研究人员阿尼尔·塞思 (Anil Seth) 表示,这“仍然遥不可及,可能根本不可能。但即使不太可能,完全否定这种可能性也是不明智的”。