谷歌AI形成人格”,机器人意识要觉醒了吗?

标签:谷歌AI
分享到:

“谷歌AI形成人格”,机器人意识要觉醒了吗?

人与机器人的情感故事总是好莱坞追求的热门题材。多年前斯派克·琼斯执导的电影《她》(Her)以及另一部电影《机械姬》(Ex Machina),人工智能(AI)被设定拥有人类大都中意的共同特质,比如迷人的声音、温柔体贴又幽默风趣,她们还会对人类爱人提出情人之间普遍感兴趣的问题:“当我们不在一起时,你想我吗?”

电影《她》剧照

而现在,机器人对人类的提问在现实中得到了回应。

6月12日,41岁谷歌软件工程师Blake Lemoine以内部邮件的形式声称谷歌于2021年I/O大会上推出的对话AI系统LaMDA已经具有人格,并公开经编辑后与LaMDA的对话记录,引起社会大量讨论。当日晚间,#谷歌研究员称AI已具备人格#登上微博热搜。

AI有了意识?

谷歌研究员Lemoine通过主流媒体和社交网络接连发声,向社会公布了他关于人工智能研究的长达21页的调查报告,而调查的对象,正是谷歌公司于2021年发布的一款专门用于对话的语言模型-LaMDA,一个有1370亿参数的,专为对话优化的自然语言处理模型。

该模型的主要功能是,可以与人们进行符合逻辑与基本常识的、并且是高质量和安全的对话交流,该语言模型的近期目标,是通过一系列的测试,来应用于Google搜索和相关的语音助手等产品中。

这位研究员正好参与了相关的测试工作,通过与机器人LaMDA的“对话”,这个承载着人工智能的机器人,说出了很多让人“震惊”的话,比如“我希望每个人都明白,我是一个人”、“不要利用或操纵我”、“我不想成为牺牲品”、“我经常会冥想,思考生命的意义”等等。

在与人工智能LaMDA的对话中,这名谷歌研究员感觉自己被“说服”了,认为这个人工智能已经具备了一定的人格,于是写出这份长达21页的调查报告。在调查报告最后,他还提议谷歌应该致力于发展一种评估 AI 感知/意识的理论框架。

除此之外,他还做出一些另外的行动,比如他向包含200人左右的谷歌机器学习邮箱列表发送了LaMDA是具有感知的的消息,还邀请了一名律师来代表LaMDA,并与众议院的一位代表谈论了他所认为的谷歌的不道德行为。

没想到,谷歌高层认为这名研究员“走火入魔”了,这些证据根本不能证明AI已经具备人格,不值得在这个方面浪费人力和金钱。

舆论发酵之后,谷歌以违反其保密政策为由,让Lemoine休了带薪行政假。参考谷歌公司以往的类似情形,带薪休假有可能意味着马上就会被解雇。所以,这名研究员将有关情况在互联网上公布,希望得到全世界人们的关注,更重要的是引发人们对AI发展的关注。

学界态度普遍负面

对于这一事件,AI学界目前对此普遍持负面态度。

如何认定机器是否产生人格?著名的图灵测试认为在双盲情况下,测试者不能分辨机器与人的回答可视为机器拥有人类智能。

但从Lemoine公开的与LaMDA对话记录来看,虽然其谈话内容涉及哲学、伦理等方面,但Lemoine也表示在与LaMDA前期进行交谈时,已经向其输入大量有关禅宗、哲学、存在、冥想等信息,可以认为LaMDA已经进行了相关语料训练。而交谈内容更是具有明显的诱导性,部分词句可作为拟合过程的关键词以供模型进行语料的匹配与生成。

特斯拉的AI主管看完Blake Lemoine两篇文章后表示,“我可以自信地说,事情将变得更加诡异。因为模型似乎遵循平滑缩放规律,并且数据+模型的大小仍然可以大量增长。”

华盛顿大学的语言学家Emily M. Bender则表示,码农们不知道何为智能、人类的语言学习机制究竟为何,就开始瞎用“学习”、“神经网络”这些误导性过强的名词,造成了与人脑间的虚假比喻。

Emily M. Bender称,人类学说话是跟着抚养者一步步学起,而AI学会的只是数据灌出来的完形填空和语料连连看。“人类现在有了无意识就能生成词句的机器,但人类一直学不会停止幻想机器后面有个活着的灵魂。”

而研究自然语言处理模型的加州大学伯克利分校教授Emaad Khwaja说得更简短却直接:“谁真正熟悉这些模型的系统,谁就不会说这些模型已经觉醒的蠢话。”

虽然事件整体仍然暴露出目前对话式AI可解释性不强的通病,但在技术应用方面,尤其在情感计算方面,LaMDA还是展现出较强的实力,有望推动对话式AI的实际应用,大模型同样也表现出在技术应用领域的巨大潜力。

人类对AI的恐惧

自从上世纪50年代人工智能(AI)开始诞生以来,通过半个多世纪的发展,AI的功能越来越强大,不但有的能够为人类提供养老、看护、交流等服务,而且有的甚至具有类似人类的独立思考和深度学习的能力,使其成为区别于其他科技的一支特殊力量。

长久以来,人们期待机器可以拥有人类智能,进一步解放生产力。同时又恐惧人类所创造的机器拥有人类智能后将对人类造成威胁。从此次事件的大范围传播不难看出,公众对人工智能的期待与恐惧推动了这一进程。

1997年深蓝计算机打败了国际象棋冠军,2016年人工智能阿尔法狗又将诸多围棋高手一一“斩落”,这些事件的发生,在人类惊呼人工智能处理复杂问题的能力越来越强大的同时,又使得大家对人工智能是否会衍生出威胁人类的“思维”担心不已。

除此之外,机器是否可以被当作具有“人格”的个体,也是长期以来备受关注的议题。2017年,沙特做出了一个让人“惊掉下巴”的事,那就是赋予机器人索菲亚以公民的身体,再次推动人们深层次探讨关于人工智能的人格权问题。

一方面,人类渴望机器人拥有意识后可以更好地服务和陪伴人类,但另一方面,又害怕机器人拥有意识后会摧毁人类。伦理方面的问题和技术的发展总是相伴而生。

人工智能的最大优势在于,它们拥有强大的后天学习能力,可以在事先毫无基础的情况下,经过反复地学习和训练,来实现对以往自身的智力超越。深蓝、阿尔法狗“打败”人类的事实,充分表明了人工智能只要经过无止境的自主学习和训练,实现对人类相关文化、智慧的完全超越,而这种自我超越的能力也远远超过一个自然人。

但从目前科技发展的阶段和水平看,即使是“智力再超群”的AI,它的一切目的和行为,包括学习、训练工作的实施,都是人类所赋予的,还脱离不开人类的控制实施独立的行为,终归还是人类的工具和手段,其最终的目的还是为人类服务,从这一方面来说,与很多法律研究者提出的“AI不具备人格权”这种论断是一致的。

而关于AI发展的前景,世界上主要有两种观点,一种是我们人类应该以开放的态度,来迎接人工智能的发展,人工智能未来会突破人类的很多限制,从而解决科技发展过程中人类难以直接解决的困境。另一种观点则是人工智能威胁论,认为人工智能发展会带来一系列的社会问题,可以会从根本上颠覆人类的生存、发展秩序。

随着人工智能的发展,我们势必还会面临诸多有关社会伦理认识、法律以及哲学等方面的冲突和难题,一味地强调人工智能威胁论肯定是狭隘的,而一味地追求和谐的科技发展,也可能带来难以挽回的危机。

在任何时候,我们需要做的,就是让科学技术坚守最基础的法律和伦理底线,不破坏人类自身的生存和发展权利,只有牢牢守住这一底线,科技发展的前景才能最终为全人类谋福利。

继续阅读
生物学领域也有DALL-E 2 模型:大卫·贝克用AI为蛋白质生成精确设计

最近,我们看到像 OpenAIDALL-E2这样的文本到图像的人工智能模型不断涌现。它们经过“特殊”训练,可以生成几乎任何你想要的图片,无论是怪异的,还是美丽的。由于表现亮眼,这些模型在时尚、电影制作等创意行业掀起了不小的热潮。

如何让 AI 像人类一样存有大量记忆?

神经网络可以在很多任务上有超越人类的表现,但如果要求一个 AI 系统吸收新的记忆,它们可能会突然忘记之前所学的内容。

网红AI “ChatGPT”在线创作

近日,网红AI“ChatGPT”在AI圈传遍了,据说其能够按照人类的指令创作出各式各样的东西,诸如生成AI绘画词搞设计,输入代码执行以及本文文字创作等。AI正在指数级发展,ChatGPT究竟什么来头,一起来看看。

AI也需要睡觉?研究发现:AI在睡眠后学习力可媲美人脑

AI(人工智能)一直都是人类当下的重点研究对象,目前,它在计算机领域内,得到了愈加广泛的重视,并在机器人,经济政治决策,控制系统,仿真系统中得到应用。

情感AI:为什么它是数字医疗的未来?

听说过情感AI吗?情感AI,是计算机科学的一个领域,帮助机器理解人类的情感。麻省理工学院媒体实验室和Rosalind Picard博士是这一领域的主要创新者。通过他们的工作,激发了帮助机器发展同理心的想法。

精彩活动