ChatGPT会替代我们吗?(2)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
我们可以将ChatGPT类比为 一种基于演绎推理的技术 。演绎推理从一般性的已知前提出发,推导得出个别的具体结论,ChatGPT也采取了类似的逻辑:
利用预训练的语言模型和深度学习算法,ChatGPT通过处理和分析大量的文本数据,学习自然语言的语法和语义;根据自然语言词序分布的显著统计特征,从用户输入的文本中识别出相似的模式和语言结构,从而推导和预测出概率分布较好的相关词序列,以生成新的文本来回答用户的问题。
也就是说,ChatGPT给出回应主要依赖 相关性 而非逻辑性,这与人类的综合思维模式截然不同。
△ChatGPT或许还缺乏一些幽默感
这意味着,ChatGPT同样面临着演绎推理的思维局限—— 无法创造新的知识。
ChatGPT的输出结果仅仅是对已有数据的总结和概括,而不能产生超出训练数据范围的新内容。相比而言,人类通过从经验中学习,采用归纳法、演绎法、类比法等多种思维方式与创造性想象的结合,产生新的知识。这是“弱人工智能”所不具备的能力,也是“强人工智能”的发展目标。
从目前来看, 人类知识和语言的发展水平框定了人工智能的发展上限, 而人类思维的局限、人类的发展上限则永远需要人类自身通过不断提高认识世界的能力与水平来突破。在这个过程中,人工智能或许能够提供一些辅助,却无法代替人类承担这一重任。 与演绎推理类似 ,ChatGPT的输出结果受到输入数据的影响。 ChatGPT只能保证给出的回答在语言形式上的合规性,无法判断回答是否正确、真实。
究其根源,一方面,对于一些自然和社会现象,人类自身尚未形成定论,这些未知正是人类不断发展的动力与方向;
另一方面,ChatGPT的知识范围局限于其训练参数(在搭载了GPT的搜索引擎“新必应”的情况下,是整个互联网),如果问题超出训练参数范围,更容易发生错误。
△至少认错态度是诚恳的 以ChatGPT为例,其训练数据包括维基百科、Common Crawl、开源论文、社交媒体等免费、公开的文本数据集以及商业公司提供的私有数据集,如书籍、新闻报道等,这些数据并不能覆盖人类面临的全部问题,其本身的时效性、真实性、客观性和代表性也是存疑的。
接入互联网的“新必应”虽然在提供实时信息、信息溯源方面有了很大的进步,但由于暴露在未经审查、标注的数据集之中,回答的真实性、正确性方面更是大打折扣,捏造答案、伪造数据来源等问题也在近期的测试中不断暴露出来。
99科技网:http://www.99it.com.cn
