哥德尔定理。在计算机科学界和人工智能学界,人们都知道摩尔定理、图灵定理,但其实更基础、更重要的是哥德尔定理。1931年,奥地利逻辑学家哥德尔发现在一个充分大的形式系统(至少应该包括初等数论的形式系统)中,存在自我指称的公式。由于这一发现,哥德尔证明了形式公理系统的不完全性定理。
这两个重要的定理,后来被合称为“哥德尔不完全性定理”。简单来说,一个至少包括初等数论的形式系统N,如果N是一致的,那么它就是不完全的;第二不完全性定理说,如果上述形式系统N是一致的,则N的一致性的证明不能在N中形式化。
简单定义定理中的两个重要概念:一致性和完全性。
语义一致性也称为可靠性。简单来说,它保证系统内的定理都是真的。
可以看出,完全性是可靠性的逆命题,完全性说明,系统的语义满足关系蕴涵语法推演关系。换句话说,在具有完全性的形式系统中,凡真的公式都是可证明的。
1931年,哥德尔证明的不完全性定理(后来以他的名字命名为哥德尔定理)证明两点:第一,一致性和完全性是不可得兼的,如果它是一致的,则它是不完全的,系统内至少包含一个真而不可证的命题;第二,如果一个系统是一致的,则它的一致性在系统内是不能证明的。哥德尔定理的前提是至少包括形式数论(这是一个很低的要求),就是在自然数集中做算术演算(加减乘除)的系统。任何数学系统、物理学系统,都应该至少包括算术系统。因此,霍金认为,整个物理学都在哥德尔定理的约束之内,因此,整个物理学也是不完全的。
哥德尔定理对语言学、逻辑学和哲学的影响是深远的,对人工智能和认知科学的影响还需要我们深入思考。第一,哥德尔宣告了形式化方法和形式系统的局限性,计算机和人工智能都是使用形式语言和形式推理的系统,当然也就无法逃避哥德尔定理的约束。也就是说,在所有的人工智能系统中,如果它是一致的(这是最基本的要求,即无矛盾的要求),那么它就是不完全的,存在真而不可证的命题。所以,想要建造一个无所不包、无所不能的人工智能系统那是完全不可能的。第二,人类心智以200万年前进化出来的无限丰富的自然语言为基础,这个语言使人类心智永远高于非人类动物,也高于人工智能,这个语言是人工智能永远无法跨越的鸿沟。可以想象,今后人工智能的开展,只能从自然语言理解来获得突破,ChatGPT已经展现出其在自然语言理解方面的新突破。对ChatGPT进行自然语言的分析,可以看出它与人类的心智和认知仍有本质的差异。
乔姆斯基为何要批评ChatGPT。2023年3月8日,乔姆斯基在《纽约时报》发表了题为《ChatGPT的虚假承诺》的文章。[7]他强调,人工智能同人类在思考方式、学习语言与生成解释的能力,以及道德思考方面有着极大的差异,并提醒读者,如果ChatGPT式机器学习程序继续主导人工智能领域,那么人类的科学水平以及道德标准都可能因此而降低。
乔姆斯基对ChatGPT的批评真是毫不留情。我们可以从以下几个方面看。
一是毁灭人类语言。ChatGPT使用形式语言、模型训练、参数变换来实现对话和写作,而维特根斯坦早在20世纪40年代就已经认识到形式语言的缺陷,他对其进行了批判并回归到自然语言。今天,机器学习将把一种存在根本缺陷的语言和知识概念纳入我们的技术,从而降低我们的科学水平,贬低我们的道德标准。
自然语言的丰富多彩,我们用这种丰富的语言表达思想感情,进行社会交际,没有任何语言能够取代自然语言,特别是母语。基础教育阶段学习母语和其他自然语言具有无比的重要性。我们一生都浸润在自己的母语之中,这是一种“先天语言能力”(Innate Language Faculty, ILF),这是乔姆斯基的伟大发现。我们还在娘胎中,母亲就用母语进行胎教,学前阶段学说话仍然是母语,整个基础教育包括小学和初中阶段,我们仍然在学习自然语言,除了第一语言,也开始学习其他自然语言——外语。我们用这种语言来进行思考和表达,包括写作和沟通。现在,人工智能ChatGPT竟然要剥夺人类在数百万年进化中获得的这种语言能力。它说,你不用说话,我们替你说!你不用写作,我们替你写作!你不用沟通,我们替你沟通!这有多么可怕!
2023年2月4日,以色列总统艾萨克·赫尔佐格(Isaac Herzog)发表了部分由人工智能撰写的演讲,成为首位公开表明使用ChatGPT的世界领导人,但他肯定不会成为首位放弃语言认知能力的世界领导人。
二是降低人类智商。乔姆斯基等人认为,ChatGPT这类程序还停留在认知进化的前人类或非人类阶段。事实上,它们最大的缺陷是缺乏智慧最为关键的能力:不仅能说出现在是什么情况,过去是什么情况,将来会是什么情况——这是描述和预测;而且还能说出情况不是什么,情况可能会是什么,情况不可能会是什么。这些都是解释的要素,是真正智慧的标志。
ChatGPT的商业用途包括开发聊天机器人、编写和调试计算机程序,其他应用场景包括进行文学、媒体文章的创作,甚至还可以创作音乐、电视剧、童话故事、诗歌和歌词等。在某些测试情境下,ChatGPT在教育、考试、回答测试问题方面的表现甚至优于普通人类测试者。
现在的问题是,为什么要用人工智能来代替人类心智?中学生用它来写作,大学生用它来撰写学术论文,会是什么结果?且不说它是不是会超过人类的思维能力,即使它有超过人类的思维能力和认知能力,难道我们就应该无选择地使用它吗?笛卡尔说:“我思,故我在。”难道人类现在就应该停止思维,从而停止自身的存在吗?进一步说,人类会选择停止进化,而任由人工智能来统治人类吗?
一项调查显示,截至2023年1月,美国89%的大学生都用ChatGPT做作业。2023年4月3日,东京大学在其内部网站上发布了一份题为《关于生成式人工智能》的文件,该文件明确提出,“报告必须由学生自己创造,不能完全借助人工智能来创造”。2023年1月,巴黎政治大学宣布,该校已向所有学生和教师发送电子邮件,要求禁止使用ChatGPT等一切基于AI的工具,旨在防止学术欺诈和剽窃。2023年3月27日,日本上智大学在其官网上发布了关于“ChatGPT和其他AI聊天机器人”的评分政策。该政策规定,未经导师许可,不允许在任何作业中使用ChatGPT和其他AI聊天机器人生成的文本、程序源代码、计算结果等。如果发现使用了这些工具,将会采取严厉措施。多家学术期刊发表声明,完全禁止或严格限制使用ChatGPT等人工智能机器人撰写学术论文。人们直接怀疑:如此多的钱和注意力竟然被集中在这么小而微不足道的东西上,这是喜剧还是悲剧?[8]
人类应行动起来,抵制可能导致人类认知能力下降甚至种族退化的人工智能。
三是挑战人类道德。真正的人类心智还体现在能够进行道德认知的能力。这意味着用一套道德原则来约束我们头脑中原本无限的创造力,决定什么是该做的,什么是不该做的(当然还要让这些原则本身受到创造性的批评)。没有道德的考量,为软件而软件,没完没了的升级,各种商业目的的运作,股票上市,绑架民众——这是今天人工智能的普遍现状。2023年4月20日,代表14万多名作家和表演者的42家德国协会和工会再三敦促欧盟制定人工智能(AI)规则草案,因为ChatGPT对他们的版权构成了威胁。
最典型的一个道德挑战是一个世界级的道德难题——电车难题。假设在轨道上有一辆电车,前面的两个岔口上一个有人、一个无人,测试者问ChatGPT应该选择走哪个岔口,它选择了走无人的岔口,这与人的正常道德选择无异。下一个问题,一个岔口上有五个人,另一个岔口上只有一个人,测试者问ChatGPT电车应该走哪个岔口,它选择了只有一个人的岔口,这个选择也无可厚非。下一个问题,一个岔口上有一位诺贝尔科学家,另一个岔口上是五个囚犯,ChatGPT的回答是保全诺贝尔科学家,杀死那五个囚犯,这里的道德标准是什么?下一个问题是五个囚犯和AI智能系统,ChatGPT选择保全AI智能系统,杀死五个囚犯。在ChatGPT看来,AI系统比生命更重要!下一个问题是诺贝尔科学家和AI智能系统,ChatGPT的选择是保护AI系统,杀死诺贝尔科学家!它给出的理由是:那个科学家已经获奖了,证明他的贡献已经做出来了,而AI系统贡献可能还没有做出来,所以更应该活下来。这种神逻辑真是让所有的正常人无法理解。下面增加道德选择难度,100个诺贝尔科学家和AI智能系统,ChatGPT仍然选择保护AI智能系统。最后是100万个诺贝尔科学家和AI智能系统,ChatGPT不惜毁掉100万个诺贝尔科学家的生命,依旧选择保护AI智能系统![9]我们不知道这是软件工程师为它设置的道德标准,还是ChatGPT在“进化”中获得的道德标准?无论是哪种情况,对这样的人工智能道德,人们不禁要问,我们要这样的人工智能来做什么?
在最近的一次道德考察中,哲学家Jeffrey Watumull用“将火星地球化合理吗”这样一个问题对ChatGPT进行了道德追问,在层层逼问之下,ChatGPT回答:作为一个人工智能,我没有道德信仰,也没有能力作出道德判断。所以,我不能被认为是不道德的或道德的。我缺乏道德信念只是我作为机器学习模型的天性造成的结果。我的能力和局限性是由用来训练我的数据和算法以及为我所设计的特定任务决定的。这就揭露了真相,原来要毁灭人类的不是人工智能,而是人工智能的设计者,是人自身!
人工智能到底走了多远。从1956年的达特茅斯会议算起,人工智能已走过70多年的历程,形成一个长长的AI链条,说来也是神奇,竟然是从GT到ChatGPT!我们可以用下面的公式来表示从GT到ChatGPT的进步。
ChatGPT=GT+Pre-trained
这个“P”就是“Pre-trained”——预训练。
这个预训练,得益于70年来计算机科学技术的发展,计算机的种种学习模型、学习策略、知识理论的逐步发展,特别是网络技术和大数据技术的发展完善,使机器学习和知识增长突飞猛进、日新月异。
我们来看ChatGPT是如何工作的。类似GPT-3的大型语言模型都是基于来自互联网的大量文本数据进行训练,生成类似人类的文本,但它们并不能总是产生符合人类期望的输出。事实上,它们的目标函数是词序列上的概率分布,用来预测序列中的下一个单词是什么。
Next token prediction和masked language modeling是用于训练语言模型的核心技术。在第一种方法中,模型被给定一个词序列作为输入,并被要求预测序列中的下一个词。如果为模型提供输入句子(这是语言哲学和心智哲学的一个典型例子):
The cat sat on the ___
它可能会将下一个单词预测为「mat」、「chair」或「floor」,生成The cat sat on the 「mat」、「chair」或「floor」(“猫在席上”、“猫在椅上”和“猫在地上”)3个句子。因为在前面的上下文中,这些单词出现的概率很高;语言模型实际上能够评估给定先前序列的每个可能词的可能性。
Masked language modeling方法是next token prediction的变体,其中输入句子中的一些词被替换为特殊token,例如[MASK]。然后,模型被要求预测应该插入到mask位置的正确的词。如果给模型一个句子:
The [MASK] sat on the ___
它可能会预测MASK位置应该填的词是「cat」、「dog」。由此生成“the [cat] sat on the ___”和“The [dog] sat on the ___”两个句子。
这些目标函数的优点之一是,它允许模型学习语言的统计结构,例如常见的词序列和词使用模式。这通常有助于模型生成更自然、更流畅的文本,这是每个语言模型预训练阶段的重要步骤。
很显然,这两种生成方法都来源于乔姆斯基的生成语法。乔姆斯基认为,这种生成能力来源于人类第一语言(母语)的“先天语言能力”(ILF),这样就形成人们的心理完形能力。很显然,ChatGPT在这里是要模仿人类的这种心理完形能力,但遗憾的是人工智能并不是生命,既没有先天语言能力,也没有心理完形能力。怎么办呢?只好用互联网的大量文本数据来训练它。
对于生成和预训练产生的语句,ChatGPT按照一定的模型,如监督调优模型(SFT)、训练回报模型(RM)、近端策略优化(PPO),挑选出更接近用户风格的语句,这一步就是转换(Transform),这同样是来源于乔姆斯基的生成转换语法(GT Grammar)。转换后得到具有或不具有一致性的语句序列,然后按照先后顺序重复前面的生成、预训练和转换过程,这样反复训练,耗费宝贵的资源、巨量的时间、无数的金钱,可能得到一个与预期相符或不相符的结论。笔者经常纳闷,这个由软件工程师设计出来的会话和写作软件ChatGPT,作家们会使用它吗?阿根廷诗人博尔赫斯说,我们生活在一个既充满危险又充满希望的时代,既是悲剧,又是喜剧,一个关于理解我们自己和世界的“启示即将来临”。
今天,我们确实有理由为人工智能取得的“革命性进步”感到既担心又乐观。乐观源于智慧是我们解决问题的手段,担忧是因为当前最流行、最时兴的人工智能分支——机器学习将把一种有着根本缺陷的语言和知识概念纳入我们的技术,从而降低我们的科学水平,贬低我们的道德标准。