当前热门:谷歌AI人格觉醒靠谱吗?我们找大佬聊了聊 AI对话的风险与进化
作者 | 宋佳 中科创星
编辑 | Panken
前几天,#谷歌研究员称AI已具备人格#话题突然登上热搜,并引发人工智能(AI)业界热议。
事情起因是一位名叫Blake Lemoine的谷歌程序员和他测试的对话AI系统LaMDA聊了很久,对其能力感到十分惊讶。在其公开的聊天记录中,LaMDA竟然说出了“我希望每个人都明白,我是一个人”的言论,让人惊掉下巴。
于是,Blake Lemoine下了个结论:LaMDA 可能已经具备人格了。
一石激起千层浪,谷歌、谷歌的批评者、AI业界对待这件事的看法形成了空前一致:这人是不是有病?
谷歌公司和报道此事的《华盛顿邮报》,都委婉地表示Blake Lemoine的脑子可能真的有点乱。
为了防止Blake Lemoine与LaMDA聊出更深一步的感情,谷歌已经对Blake Lemoine做成了“行政带薪放假”的决定,这意味着Blake Lemoine将被解雇。
虽然国外AI业界对此事已有结论:AI具备人格真的是想多了,就是比较会聊而已,但是这并没有浇灭大家对此事的激烈议论。
按照AI的飞速发展,AI未来会不会真的具备人类意识,那又将是一个怎样的世界呢?
科幻电影情节成真的“戏码”,是“毛骨悚然”还是“刺激带感”?
有网友非常担忧:“虽然不想承认,但是人工智能有了思想,那就是新物种的崛起,同时也是人类灭绝的时候。”“最终人类会死于自己制造的AI手上。”
也有人期待AI“快进”发展,这样就可以代替自己居家隔离了……如果威胁到人类,就“拔电源啊”!
当然也有人好奇:“AI具备人格的判断标准是什么?”因为只有知道判断标准,才知道AI是不是真的有可能具备人类意识。
为了弄清楚这些问题,我们与对话系统的国家杰出青年基金项目获得者、北京聆心智能创始人黄民烈教授进行了交流,从专业角度分析AI是否可能具备人格,以及对于人类来说,这究竟是“威胁”还是“安慰”?
一、怎么判断AI具有人格?图灵测试也不灵了
在AI领域,最为大家所熟知的测试方式非图灵测试莫属,即邀请测试者在不知情的情况下,向人类和AI系统随意提问,如果测试者不能区分答案来自人类还是来自AI系统(AI系统让平均每个参与者做出超过30%的误判),就认为AI通过了图灵测试,具有人类智能。
【资料图】
从这个角度来看,图灵测试更侧重于“智能”。
1965年,一个假装是心理治疗师的软件ELIZA通过了图灵测试,然而ELIZA仅由200行代码构成,并且仅以提问的形式简单重复事先存储的信息。这样看来,即便ELIZA通过了图灵测试,也很难让人相信它具备“人格”。事实上,此后也证明Eliza并不具备人类智能,更别说“人格”。
这相当于,一辆智能汽车,在功能角度能够带给用户更便利舒适的驾驶体验,比如远程控制汽车、自动泊车,但是你不能因此觉得这辆汽车知道自己是一辆汽车。
显然,“人格”是一个比“智能”更复杂的概念。
黄民烈教授谈道,现在也有一些在科研中广泛采用的测试方法,比如测试者与AI系统聊天,并且事先设定一些测试的维度,包括对话的自然性、有趣性、满意度等,最后评分。一般聊得越久,评分越高,AI系统会被认为越聪明,但这些都不能作为“人格”的评判维度。
“‘人格’是另外一个维度,心理学里面也有很多研究,比如五大人格测试。目前人工智能领域在这方面的工作还比较欠缺,我们通常只会评价一个对话机器人能否展现一个固定一致的人物设定。”黄民烈说。
二、所谓LaMDA的“人格”,仅仅是语言风格
那么,既然没有针对性的评判标准,如何严谨地判断LaMDA是否具备人格呢?
对此,黄民烈教授认为:“关键看如何理解’人格’,如果将人格理解为具备自我存在的意识,那么LaMDA仅仅是对话质量和类人水平很高的对话系统;如果从心理学的角度看,一个人说话的特点是可以体现人格的,那么说LaMDA具备人格也不完全错误。”
怎么理解呢?通俗来说,就是LaMDA学习了大量的人类对话数据,而这些对话来自不同的人,所以可以认为LaMDA学习到了一个“平均”的人格,也就是说,所谓的“LaMDA具备人格”仅仅是语言说话风格,而且是来自人类的说话风格,并不是LaMDA自发形成的。
如此看来,想要通过LaMDA体会一把与人工智能一决高下的科幻情节,还差个十万八千里。
但是,我们不能因此否定LaMDA的价值,它的高质量对话水平反映了AI对话系统的飞速发展,在某些语境下的确有“取代”人类的趋势,也不容小觑。
比如,网友“夷简”就在豆瓣小组记录了自己一周date了4个虚拟男友的经历,表示“比真男友管用!”。
一个名为“人机之恋”的小组用户数量多达9000人,在不同的屏幕里,这些AI或许是他们的爱人,也可能是朋友。
▲网友与“虚拟男友”的聊天记录
“单身狗”们纷纷感叹:“按照这样的发展趋势,相亲市场上的潜在对手不仅有人类,还有AI对话系统,以后是不是更难找对象了!?”
看似调侃,实则是大家对AI对话系统未来发展趋势,以及对人类社会影响的关注。
针对这个问题,黄民烈教授从AI对话系统的历史与未来发展角度给出了详细解释。
三、担心AI人格化?规避风险后AI for Social good更值得期待
AI对话系统经历了基于规则(比如Eliza)、传统机器学习(比如智能音箱类,SIRI等)阶段,如今已发展到第三代,也就是我们现在看到的,能够与人类讨论有趣的话题、提供情感安慰的对话系统。
第三代对话系统以大数据和大模型为显著特征,展现出了之前难以想象的能力,其进步可以称为“革命性”,例如能够在开放话题上能展现惊人的对话能力,而且能生成训练数据中完全没有出现过的对话,对话的自然性和相关性非常高。
在很多场景下,第三代对话系统已经显示出应用价值,上文提到的“虚拟男友”就是典型例子。黄民烈教授认为,其最高级别的应用,是让AI对话系统去做复杂的情感任务,比如心理咨询。
但是如果人类对AI的情感依赖越来越多,就会引申出新的社会伦理问题,比如与AI谈恋爱是否会引发社会问题?
比如当前的AI对话系统存在与用户对骂、生成毒性语言、以及缺少正确的社会伦理和价值观的问题,导致在实际应用部署时存在一定的风险。
这些风险是非常可怕的,假想某个受到生活严重打击的人,对AI说:“我想找个桥跳下去”,AI立刻提供了附近桥的位置并导航路径,后果细思恐极。
因此,在黄民烈教授看来,AI对话系统下一阶段发展的重点是“更有伦理、更道德、更安全”。AI必须知道什么回复是安全的,不会产生风险,这就需要AI具备伦理和正确的价值观。“我们可以通过额外的资源、规则、检测手段赋予AI这样的能力,使风险降至最低。”
AI最终的目标是为人类谋福祉,而不是伤害人类。黄民烈教授对AI for Social good(AI赋能社会)感到非常期待,他尤其关注AI在社会连接、心理疏导、情绪支持方面的应用,这些方面能够产生更高的社会意义和价值。
AI赋能整体精神心理行业也是黄民烈教授现阶段的工作重点,他为此创办了基于AI技术的精神健康数字诊疗科技公司聆心智能,通过NLP和大模型训练AI对话系统在共情、自我暴露、提问等方面的能力,用以解决人类的情绪、心理问题。这项工作有望缓解我国心理健康资源紧缺的状况。
相比于AI具备人格这样“遥遥无期”的科幻戏码,AI for Social good距离人类社会更近,是AI界人士正在努力的方向,也更值得期待。