Essays in newspapers and cultural magazins
Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times
约斯·德·穆尔. ChatGPT 的寄生性. 发布时间:社会科学周刊. 18 April 2024. 

约斯·德·穆尔(Jos de Mul)是荷兰鹿特丹伊拉斯谟大学哲学系荣休教授,曾任国际美学会主席,是哲学人类学、信息哲学领域著名学者,其主要著作有《赛伯空间的奥德赛》(广西师范大学出版社2007年版),《有限性的悲剧——狄尔泰的生命释义学》(上海三联书店,2013年版),《命运的驯化:悲剧的重生与技术之灵》(鹿特丹,2016年)。《人造的本质:通往智人3.0之路》(鹿特丹,2016年)等。

译者:陈新,上海师范大学历史学系特聘教授,弗吉尼亚大学历史学系访问教授。

 ChatGPT真是神奇!我们乐于陶醉在人工智能生成式AI模型的可能性中,可它不是更应该被称为“CheatGPT” 吗?要是没有人类,这样的语言机器人又算得了什么呢?

生成式AI会成为商业上的黄金圣杯吗

人工智能(Artificial Intelligent,即AI)和人工神经网络的历史至少可以追溯到 75 年前英国数学家阿兰·图灵(Alan Turing)发表的开创性文章。从那时起,通往“人工通用智能”(即机器可以像人类一样甚至比人类更好地执行任何智力任务)的道路就已经铺就,并一直承诺有望在十年内成为现实。许多专家也将ChatGPT视为通往黄金圣杯之路的重大突破。而自从研究机构OpenAI于2022年11月免费提供这种人工智能的3.5版本以来,普通大众也为之倾倒。

科幻小说家阿瑟·克拉克(Arthur Clark)认为,任何足够发达的技术都与魔法无异。如果这句话适用于任何事物,那么此时 ChatGPT再合适不过了。 不过,尽管其中涉及大量复杂的统计数据,其原理其实非常简单。它的全名是“对话生成预训练转换器”(Chat Generative Pre-trained Transformer),也被称为“一种基于预训练语言模型的生成式人工智能”。它是一个文本生成器,当输入一串单词时,它会通过统计计算出最有可能的续写,然后将其呈现给用户。 一段时间以来,智能手机和文字处理器已经知道这种自动补充的简单版本。 当你输入一个单词的第一个字母时,系统会提示下一个单词,这样你就不必输入整个单词了。在谷歌搜索引擎中,预测文本已经走得更远了。如果您输入“法国首都”,搜索引擎会显示许多选项,包括“巴黎是法国首都”。

 在ChatGPT中,自动补全功能的规模已大大增加。界面采用聊天框的形式,你可以通过闪烁的光标向虚拟的“对话伙伴”下达各种命令。例如,你可以要求它翻译或总结一段文字,对小说、电影或视频游戏的情节提出建议,纠正计算机程序中的错误,解释科学理论或政治事件,或提供有关健康、园艺或可持续生活的实用建议。

 ChatGPT的性能往往令人震惊,这要归功于OpenAI使用一台拥有 28.5万个处理器(这个数字还在急剧增加)的超级计算机创建的巨大语言模型。除了计算能力的提升和海量数据,这一飞跃还得益于2018年推出的神经网络“转换器”,它凭借“注意力机制”,可以聚焦于文本中最切题的词语。此外,与老式神经网络不同的是,它可以并行处理输入数据。即便如此,这些模型往往需要数月时间才能开发出足够的参数(决定从输入到输出转换的值),从而产生令人满意的结果。

 自2022年底问世以来,ChatGPT发展可谓波澜壮阔。截至2024年1月,OpenAI已经拥有1.8亿用户,每月访问OpenAI网站的次数超过16亿次。尽管OpenAI最初是一个非营利组织,但自2023年3月起,用户每月需为4.0版本支付20美元。随后,2023年9月,根据文字描述创建图像的“DALL-E”(达力,画家达利和动画电影瓦力的合成词)问世;2024年2月,文生视频模型“Sora”(索拉)问世,它能生成超逼真的一分钟电影片段。

 不用说,Open AI并不是唯一一家进入这一市场的公司。2023年初,微软向ChatGPT投资100亿美元,并将其整合到自己的人工智能聊天框Bing中。Meta公司推出了 LLAMA;谷歌推出了Gemini,苹果公司也准备在其新操作系统中内置该技术。埃隆·马斯克和杰夫·贝索斯也在2023年宣布了自己的人工智能变体。硅谷显然也希望生成式人工智能成为商业上的黄金圣杯。发展正在飞速前进。2024年2月,“Deep Mind”德米斯·哈萨比斯(Demis Hassabis)团队开发了Gemini 1.5 Pro,用户可以输入多达一百万个字符。有了它,创作者声称可以实现“长语境理解”。2024年3月,马斯克开源了其人工智能系统Grok。

 然而,除了“内容”,生成式人工智能还引发了关于这种人工智能形式的用处和缺点的激烈社会辩论。一个阵营认为人工智能是解决人类面临的诸多危机的灵丹妙药,而由尼克·博斯特罗姆(Nick Bostrom)和马克斯·泰格马克(Max Tegmark)等哲学家领导的另一个阵营则警告说,卓越的人工智能将超越人类。这种乌托邦式预言的支持者中,包括许多生成式人工智能的设计师和资助者。例如,2023年3月,德米斯·哈萨比斯、埃隆·马斯克和苹果公司联合创始人史蒂夫·沃兹尼亚克等人发表了一封公开信,呼吁立即暂停人工智能开发六个月,以便在此期间建立协议和审查系统,确保人工智能的安全。顺便说一句,这个暂停并没有实现。

共生是进化过程中的一个关键因素

我们应该如何理解生成式人工智能并评估对立的价值观? 我认为,进化和共生的(symbiotic)视角,更具体地说,技术共生(techno-symbiosis)的概念,为实现这一目标提供了一个很好的切入点。

 共生这一概念在古希腊语中的意思是“共同生活”,但在二十世纪的生物学中,这一概念一直未得到充分研究。 其中占主导地位的新达尔文主义认为,生命与自私的个体之间的竞争和斗争密不可分,而这是由自私的基因驱动的。 美国古生物学家杰伊·古尔德(Jay Gould)认为,这种人类观与新自由主义非常相似,这绝非巧合。 古尔德认为,经济学家亚当·斯密在其《国富论》(1776年)中不仅从个体参与者的自身利益出发解释了市场的运作,还启发达尔文在《物种起源》(1859年)中将自身利益视为生命进化的驱动力。 虽然斯密和达尔文也承认合作的作用,但后来的(新)达尔文主义者几乎只关注竞争。在《自私的基因》(1976年)的作者理查德·道金斯等生物学家,以及玛格丽特·撒切尔夫人(主张“别无选择”)和罗纳德·里根(戏言“核爆他们”)等政府领导人的推动下,“贪婪即美德”的意识形态达到了顶峰。

 尽管这种意识形态依然普遍存在,但共生在进化和经济学中的作用现已凸显。关于共生,可以分为三种基本类型:同种生物共生(群居、兽群中和成团共生的动物)、不同种生物共生(如花卉和昆虫)以及生物和生物共生(从海狸坝到智能手机)。

 共生是进化过程中的一个关键因素,原因至少有两个。首先,它是一种重要的创新力量。地衣就是一个很好的例子。长期以来,人们一直认为地衣是独立的生物物种,但在1877年,人们发现地衣是真菌和绿藻或蓝藻的共生体。这些复合生物出现于大约50万年前,它们分解岩石并将其化为泥土,在以前多岩石的地球上创造了一个全新的生态系统,在这个生态系统中,新的陆基物种可以从水生生物发展而来。

 微生物学家林恩·马格里斯(Lynn Margulis)在上世纪六七十年代提出的内共生理论(endosymbiosis theory)清楚地表明了共生体的创新能力有多重要。长期以来,新达尔文主义者忽视了这一点,但现在它已被广泛接受。她指出,真核细胞(具有细胞核和细胞器的细胞)出现于大约16亿至18亿年前,是两种更简单的单细胞生物(细菌或古细菌)共生的结果,其中一种生物融入另一种生物,成为“能量工厂”。这种新型细胞构成了后来整个动植物王国的基本单位。马格里斯在她的著作《共生星球》(1998年)中指出,共生是所有进化的驱动力。

 人类的进化也与创新共生密不可分。人类非常擅长合作和分工,因此创造了高度复杂的社会和文化。人类也像其他生物一样,与其他物种紧密共生。在这里,我们不仅要考虑到我们与狗(人与狼相互驯化的结果)和牛等家畜的共生关系,还要考虑到我们体内数十亿的细菌和病毒,它们对于消化、免疫系统以及胎盘和新皮质的胚胎发育都是不可或缺的。事实上,你不能再把生物视为属于不同的物种;相反,它们是各种基因和新陈代谢过程的临时性交汇点。人类与技术(工具、机器和信息技术)的技术共生一直是人类进化过程中至关重要的创新因素。虽然这些人工制品不是有生命的,但它们确实具有能动性,因为它们带来了新的生命形式。因此,农业技术和文字将史前智人转变为现代人(有时被称为智人),而人类与人工智能的共生似乎也代表着人类进化的一个新步骤。

 共生之所以成为生物学中如此重要的因素,第二个原因是,与新达尔文主义和新自由主义固守竞争的观点相比,共生为进化和革命性发展提供了更广泛的解释。事实上,共生研究根据共生对相关“共生体”的效用区分了不同形式的共生。我上面举的例子是所谓的互利共生,这对共生双方都有利。然而,还有共享共生(commensal symbioses,对一些共生体有益,对另一些共生体中性)、寄生(对一些共生体有益,对另一些共生体有害)、补偿(对一些共生体中性,对另一些共生体致命)和稀缺资源竞争(对大多数共生体有害)。

 马格里斯和化学家詹姆斯·洛夫洛克(James Lovelock)率先提出了“盖亚理论”(Gaia theory)。根据这一理论,地球可以被视为一个巨大的“整体生物体”(holobiont),一个由数以百万计的生物和非生物元素组成的动态系统,它就像一种恒温器,维持着地球生命所需的生态平衡。然而,不同类型共生体的存在清楚地表明,与新纪元的信徒所声称的相反,盖亚并不仅仅是一个充满关爱的“地球母亲”,用马古利斯的话说,她还像古典悲剧中的美狄亚一样,杀死了自己的孩子。

 

以多种方式作弊的“CheatGPT”

在这种背景下,现在该如何解释 ChatGPT 和相关的生成式AI系统呢?我想捍卫的论点是,在这里,我们面对的是寄生性技术共生体,它们不仅利用了人类的思维,而且在这一过程中还以多种方式作弊。 我这里所说的“作弊”,并不是指你不仅可以向 ChatGTP 寻求写作建议,还可以让“作弊机器人”为你写出整篇论文。

 生成式人工智能系统在更根本的层面上也具有误导性,因为无论其构造多么巧妙,它们都不能像人类、海豚甚至细菌那样被称为智能系统。ChatGPT 只是一台“句法机器”,它在将单词和单词部分转换成数字后,除了生成关于最有可能出现的下一个单词的统计预测外,什么也不做。ChatGPT既不懂语义学,也不懂语用学:它不赋予数据任何意义,除了在用户屏幕上显示输出结果之外,自己也不做任何事情。只有人类和人工智能这两个共生体才能共同构成一个智能系统。只有用户可以解读屏幕或智能手机上的一系列字符,并对它们进行操作时,这些字符才获得意义和目的。

 由于 ChatGPT 本身只是无意识地鹦鹉学舌,语言学家艾米丽·本德(Emily Bender)称这种语言机器人为“随机鹦鹉”。然而,这个诙谐的描述对鹦鹉来说是一种伤害,因为根据最新研究,与语言机器人不同,鹦鹉可以理解并在上下文中使用它们学舌得到的许多单词,甚至还能组成新的单词和单词组合。

 现在,你可能会认为,我们在此讨论的只是“人工智能” 一词的误用。但问题还在更深层次。由于句法机器不会为生成的答案附加意义,也无法区分事实和寓言,因此无法保证答案的准确性。语言机器人经常会“幻觉”出错误和无意义的文本。2023年,巴塔查里亚及其同事对ChatGPT生成的医学文章中参考文献的真实性和准确性进行了研究,结果发现在115篇参考文献中,47%是编造的,46%真实但不准确,只有7%既真实又准确。精神病学家罗宾·埃姆斯利(Robin Emsly)也曾报告过类似的经历,他认为“幻觉”(hallucinations,错误的感知)一词在这里用错了地方,因为这些都是捏造和篡改的。

 已发现的错误有几个原因。这些问题的部分原因是输入的内容无意义、错误和/或存在偏差,部分原因是在数据中训练语言模型会放大存在的偏见。另外一个问题是,神经网络对于设计者来说也是一个黑盒子,很难发现错误。此外,捏造和篡改也会不断累积。事实上,许多由 ChatGPT 生成的文本都会通过互联网重新回到语言模型中。最近的研究表明,由于这种反馈过程,语言模型不可避免地会随着时间的推移变得越来越“笨”,而不是越来越“聪明”。他们开始无休止地重复使用相同的数据,这迟早会导致“模型崩溃”。研究发现,ChatGTP 4在某些领域(如数学)的表现明显不如3.5版本。舒迈洛夫和他的团队最近的研究表明,从2023年3月到6月,这方面的准确率从97.6%降至2.4%。

 在与 ChatGPT的交互中,用户仍然会产生一种难以避免的错觉,以为自己是在与一位智能人在交谈,这是因为界面将巨大的数据工厂隐藏在“屏幕背后”,用户无法看到。神经网络会在瞬间就准备好全部答案,文本一字不差地显示在用户的屏幕上,让人产生错觉,以为自己是在与人打交道。在这方面,生成式“聊天机器人 ”让人想起著名的图灵测试,即你坐在屏幕前向坐在另一个房间的人类或软件程序随机提出各种问题。图灵在《计算机械与智能》(1950年)中指出,如果一台“智能机器”能在至少五分钟内让至少30%的审查者相信他是在与人类打交道,那么它就通过了测试。图灵估计,要达到这一目标还需要50年左右。

 这个预测并不差。自1990年以来,休·勒布纳每年都会组织一次比赛,让聊天机器人尝试让评委相信它们是人类。尽管这种智力测验有一定的局限性,但直到2014年,还没有聊天机器人成功通过测试。但就在这一年,俄罗斯聊天机器人“尤金·古斯曼”率先通过了测试。愤怒的评论家认为,这主要是因为一个小把戏:聊天机器人把自己伪装成了一个13岁男孩,而这个男孩对世界的了解还不多,英语只是他的第二语言。一些评论家认为这是犯规行为,认为尤金·古斯曼实际上并没有通过图灵测试。不过,也许俄罗斯人所做的正是图灵测试的意义所在。图灵在《智能机器》(1948年)中指出,智力基本上是一个情感概念。该测试主要测试欺骗对方的能力。从“CheatGPT”经常被不加批判地使用来看,我们可以断定这个聊天机器人毫不费力地通过了图灵测试。

 

警惕在进化中走上一条自寄生的道路

当然,ChatGPT显得如此人性化,主要是因为输入的大多数文本都是由人类撰写的(至少到目前为止是这样)。毕竟,语言模型是用数百万个人类创作的文本训练出来的。因此,作弊机器人与其创造者之间的寄生共生关系就显现出来了。在导入现有文本时,会大规模地侵犯版权,像维基百科和 ComonCrawl(一个包含40万亿字数据集的开源网络爬虫项目)这样的非营利性出版物会被无耻地掠夺和推销,从互联网上获取的许多输入内容都是有毒的。此外,就像生产和交易加密货币一样,创建和使用语言模型也会留下巨大的生态足迹。从生态学意义上讲,ChatGPT也是一种有害的寄生虫。

 2016 年,微软在推特上推出了聊天机器人泰伊(Tay),以美国年轻成年女性的形象示人,这显然也让人们清楚地认识到,事情也可能会在社会和政治上造成不良影响。这是一个开放的语言模型,它可以立即将数据输入到语言模型中。仅仅过了16个小时,Tay就开始传播纳粹、种族主义和性别歧视的文字,微软不得不拔掉插头。这样的“事件”发生后,不立即将用户输入纳入语言模型,而是先行检查已成为惯例。虽然OpenAI最初雇佣肯尼亚人审查经常带有种族主义和性别歧视的文字,这些人以每小时不到两美元的价格给自己带来了审查后的精神创伤,但股东们却据此中饱私囊。同年,由于谷歌照片将黑皮肤青少年标记为“大猩猩”,令谷歌名誉扫地。谷歌也作弊,从模型中删除了“大猩猩 ”类别来“解决问题”。

 不过,在这里我最关心的是,“人工智能” 一词在 ChatGPT和其他生成式聊天框中显得尤为神秘。人类作者提供并控制输入,在此基础上,模型生成信息,同样,这些信息只对人类有趣、有用或相关。人工智能本身并不智能,就像一本书一样。

 “智能”一词来自“inter”(之间)和“legere”(选择)。智能意味着能够在各种选择中做出选择。人工智能需要有目的的行动、理性的决策以及与环境有效互动的能力。人类和其他生物之所以有智慧,是因为它们有一个有机体,这个有机体通过本能、感觉和情感促使它们与环境互动,而它们对这些本能、感觉和情感是有认识的,甚至是有意识的。智能不仅仅是一个感性的概念;它需要情感的激励,无论好坏,情感都会促使我们去做智能的事情。

 此外,人们不仅与他们所处的环境(Umwelt)进行实用性互动,而且还生活在一个有意义的世界(Welt)中,这是一个承载着他们的文化,并作为一种背景不断地隐性存在着的世界。这种背景也使我们能够在不同的智能活动之间切换。此外,人类不仅可以重新组合现有知识,还可以发明新事物。人工智能做不到这些。它们本质上是人造人的延伸,有许多有用的用途,在日益复杂的世界中可能会变得越来越不可或缺。

 将复杂的思维过程“外包”给人工智能,这就像将记忆“外包”给文字一样不可避免。当年狩猎采集者的小规模文化转变为以城市化、劳动分工、科学和技术为特征的农业社会时就是如此。人工智能也可以成为一种有用的工具,但要实现人类与人工智能的互利共生,就必须想办法在不侵犯版权、不剥削知识工作者、不歧视和不破坏环境的情况下制造这些模型,并避免出现幻觉和“模型崩溃”。

 然而,有人担心,生成式人工智能将独立于人类,进化成与人类智能相当的“人工通用智能”,然后再进化成超越人类的“超级智能”,这种担心是毫无道理的。我们今天所知的人工智能什么也不知道,什么也不想要,什么也感觉不到。 不排除这样的可能(马格里斯在她的著作中也有这样的推测),在人类与技术的共同进化过程中,有一天会出现一个智能超过智人的半机械人。 埃隆·马斯克已经开始在人类大脑中植入芯片。

 但是,声称基于纯粹句法重组的生成式人工智能将做到这一点,主要是为了转移我们对上述围绕生成式人工智能的寄生行为的注意力。无论是认为人工智能将拯救人类的乌托邦式幻想,还是认为人工智能将毁灭人类的乌托邦式恐惧,都是毫无根据的。后者只是因为寄生虫依赖于它们的宿主生物。 生物学家爱德华·威尔逊(Edward O. Wilson)曾尖锐地指出,毕竟,寄生虫是捕食者,它们吃掉猎物分量小于1。没有人类,ChatGPT也将一筹莫展。

 我这样说,并不意味着像ChatGPT这样的“真实存在着的”生成式聊天机器人不会带来危险。我担心的不是人类会被高级智能体淘汰,而是人类会越来越适应和依赖低级人工智能体,从而在进化中走上一条自寄生的道路。【本文是作者2024年3月28日新著《欢迎来到共生世界:自然、文化和技术的交织》(阿姆斯特丹,2024年)中的一部分。此文的中译与发表获得作者本人授权。】

News

This website is currently under (re)construction

Books by Jos de Mul

Search this website

Contact information