ChatGPT会否取代我和你的工作?
自从 ChatGPT 的用户数在短短两个月突破 1 亿,媒体及讨论区最常「洗板」的讨论,莫过于「ChatGPT 能否取代某工种」,一时间搞得大家都人心惶惶,彷彿下一秒人类的工作,都会被人工智能淘汰。特别是最近 ChatGPT 通过了 Google 三级工程师面试,更是直接将工程师这个职业推到了风口,AIGC(AI Generated Content) 也终于正式走进了大众的眼帘。
只需要输入一串关键字,就能输出一段完成度十分高的文字,甚至是一些简单的程序码,人们不约而同第一个问题都是:
ChatGPT会取代我的工作吗?
各位读者先不用担心,这几天已经有足够多的文章,去探讨生成式人工智能的优势,亦同时令人看到人工智能的一些局限性。ChatGPT 的技术底座是大型语言模型(Large Language Models),简称 LLMs。就在这两天,两位十分着名的人工智能学者 Yann LeCun 和 Gary Marcus 统一了战线,枪口对准了 LLM 的限制,LeCun 就提出了以下的意见:
• LLM 目前能且只能作为写作的辅助工具
• LLM 是「被动的」且欠缺逻辑
• LLM 会胡说八道
• LLM 的错误可以通过人工反馈来解决,但无法完全根治
• 更好的系统终会出现
LeCun也指出了LLM最致命的一点:
「语言只记载了所有人类知识的一小部分;人类大部分的知识或动物的知识都是非语言的。」
LeCun 并不认同 ChatGPT 「真正」理解自己在说什么,而且也将无法理解人类的知识。在众多交流方式中,语言是一种高度具体但非常局限的知识表征。无论是在所谓的自然语言、程序码、还是符号,它们都具有特定形式的表征,目的都是在抽象层面上,表达离散的物件和属性,以及它们之间的关系。
语言的特点是,它传递的资讯非常少,比起非语言的知识表征,比如图像和图表,语言显然并不是传达资讯最完整的方式,而且语言比起其他方式,人们更易于压缩句子中的信息量,在没有相应语境或前文后理的情况下,人类的语言很多时候都需要透过推断来判断句子的真正含意。
这也点出了一个「大型语言模型」的核心问题,自然语言从来也不是一件清晰的交流工具,也不会是一件训练人类人工智能的终极工具,就此我们甚至不应称 LLM 类的工具为「人工智能」,因其极其量也只是在背诵数据库中的资料。
在使用 ChatGPT 时,笔者非常强烈的感受到这个 LLM 在理解「前文后理」时的突破,可是当你试图干扰及不停转换观点时,你更会发现 ChatGPT 会以重设来应付这种情况,比起反驳,ChatGPT 选择了更不连贯的世界观。
这也就解释了为甚幺 ChatGPT 给用户的感觉是似懂非懂,语言模型的确协助 ChatGPT 获取了人类知识的一小部分,但也只局限于自然语言能表达的层次。
当然,这篇文章并不是要否定 LLM 带来的革命性创新,只是「强」人工智能依然距离人类有点距离,也距离所谓取代「我们」,不是一天半天的事。