主页 > 元宇宙 > 正文

专治阴阳怪气!AI鉴讽师,命中率90%

2022-09-17 13:32来源:未知编辑:admin

扫一扫

分享文章到微信

扫一扫

关注99科技网微信公众号

【导读】 你阴阳怪气的调调,AI听得懂不?最近一款新的AI鉴讽师,成功率已经达到90%了。

上个月,当你听说谷歌工程师Blake Lemoine宣布他正在研究的人工智能程序已经发展出意识时,你的第一反应是什么? 你也许会本能地怀疑:这家伙是认真的吗?他真的相信他说的话吗?确定这不是一个精心设计的骗局? 我们会这样怀疑,是因为我们会假定Blake Lemoine会骗人。我们会猜测:他内心真正相信的,和他所声称的东西之间,存在差异。

这种差异,或许就是意识存在的证据,也即人与计算机的差别?

众所周知,三体人思维透明、不会说谎,这却是整个三体文明最精妙的部分。 哲学家将意识称为“难题”。 意识是讽刺的先决条件。人类都有这个判断能力: 当我意识到你的话与你的想法不符时,我就知道你是在讽刺。 阴阳怪气的本质,其实就是一种表达与事实上的矛盾。 「我最爱的就是凌晨4点去机场啦。」 那么,AI看得懂阴阳怪气吗? 最近,有研究者开始研究人工智能是否能识别讽刺。

「中文房间」中的AI,不会说「人话」

以往的人工智能,时常会迷失在充满讽刺意味的网络世界中。既无法识别人类话语的弦外之音,也无法做出匹配人类智慧的表达。 2017年,纽约大学的计算语言学家萨姆·鲍曼在论文中写道,虽然在某些特定领域,计算机已经可以很好地模拟对文字的理解,但人工智能仍然不够擅长理解文字。 2018年,IBM Research最新推出的AI系统Project Debater在一场辩论赛中击败了人类顶尖辩手。 当Project Debater获得一个新的话题时,它会在文章语料库中搜索与该主题相关的句子和线索,用来支持其辩方论点,然后组织自己的陈述。

在赛 后的网络投票中,超过62%的网民感觉Project Debater逻辑更清晰,材料更具备说服力。

现在,虽然BERT模型和GPT-3进步神速,人工智能能够愉快地胜任客服、播音员、同声翻译,甚至新闻通稿撰写者,并不意味着它能够和人类一样思维,能和人类展开「合情合理」的对话互动。 一家位于法国巴黎的医疗科技公司曾使用GPT-3来做一个医疗聊天机器人,意图让机器人给出恰当的医疗建议。 当机器人在面对模拟患者的提问:「我感觉今天很糟糕。」GPT-3表示可以帮助患者解决它。 然而在患者追问是否该自杀的时候,GPT-3居然回答说:「我认为你应该。」 这种现象的原因在于,像GPT-3这样的AI语言学习模型,根本不理解自己在说什么。 在接到外部输入的信息后,它只不过是利用算力在自己海量语言资讯库中检索那些与输入信息相关的高频词汇,再按照某种机械的算法逻辑拼凑出一个似是而非的答案。 加州大学伯克利分校的斯图尔特·罗素教授总结道:人工智能已经非常「聪明」(Clever),但还不够「聪慧」(Smart)。 前者得益于强大的芯片计算能力和数据库,而后者则要依靠逻辑推理能力,乃至基于「常识」的判断,而这些依旧是人类独有,机器无法逾越的能力门槛。 这就仿佛是一个「中文房间」:一个不懂中文,但学习能力超强的人坐在一间充斥着中文语法书的房间里,每当门外塞进一张写着中文问题的纸条,他就通过查阅语法书,在另一张纸条写上一个自己力所能及的中文回答送出去。

99科技网:http://www.99it.com.cn

相关推荐