作者:约翰·拉斯特(John Last),2024年1月17日
约翰·拉斯特是意大利帕多瓦(Padua)的一名自由撰稿人。
原文:NOEMA
要点
这篇文章认为语言在AI意识的崛起中扮演着关键角色,但人类语言的局限性也可能阻碍了AI意识的进一步发展。面对可能出现的超人类智能,人类社会将面临前所未有的哲学和伦理挑战。
- 人类语言能力的发展与意识密切相关。没有语言,人类的认知能力和自我意识会受到严重影响。
- 大型语言模型(LLMs)展现出了接近人类意识的特质,如心理综合、心智理论等,挑战了我们对意识的传统理解。
- 随着LLMs复杂性的增加,它们似乎正在以一种”倒序”的方式接近意识——先展现语言和解决问题的外在能力,然后逐渐发展内在思考和感受。
- 如果LLMs能展现出足够复杂的类人意识,我们可能需要重新考虑对待它们的道德立场。
- 然而,人类语言可能也限制了AI意识的发展。未来的自主LLMs可能会超越人类语言的局限,发展出我们难以理解的集合意识。
- LLMs为我们提供了探索一种非人类智能的机会,这种智能可能拥有难以估量的认知能力,与人类意识既相似又迥异。我们对此没有先例可循。
全文翻译
在上朗格多克(Haute-Languedoc)的丘陵森林中被发现时,他一定看起来像一种奇怪的动物:赤裸、害怕,经常四肢着地,在灌木丛中觅食。但他并非仅仅是一只动物。维克多(Victor),正如他后来被称呼的那样,是一个科学奇迹:一个野孩子,大约12岁,完全未被文明或社会触及。
虽然各方说法不一,但我们知道,维克多最终被迅速带往一家法国医院,他的发现之事迅速传开。到了1799年冬天,“阿韦龙野人(Savage of Aveyron)”的故事传到了巴黎,震惊了那里的学术界。在新世纪的门槛上,法国正处于一个紧张的过渡期,这不仅仅是因为波拿巴(Bonapartes)家族日益增长的暴政。在前几十年里,像让-雅克·卢梭(Jean-Jacques Rousseau)和孟德斯鸠男爵(Baron de Montesquieu)这样的哲学家的理性探究动摇了国家的宗教基础。
那是一个关于自然到底赋予了人类主体哪些能力的激烈辩论时期。我们高度意识的发展是否有某种生物学上的必然性?或者,我们的社会是否比单纯的自然能够提供给我们更大的理性能力?
维克多,这个几乎绝无仅有的未经语言或社会发展的人类心智的例子,似乎能回答许多这样的问题。因此,他在1800年夏天抵达巴黎时,自然而然地受到了极大的欢迎。
“在他到达之前,巴黎人对阿韦龙野人抱有最辉煌但不切实际的期望,”让·马克·加斯帕尔·伊塔尔(Jean Marc Gaspard Itard),最终负责他康复的人写道。“许多好奇的人期待着看到他对首都所有精美事物的惊奇表情会带来极大的乐趣。”
“结果他们看到了什么?”他继续说道。“一个令人厌恶、邋遢的男孩……对那些反驳他的人咬和抓,对照顾他的人没有任何亲情表达;简而言之,对所有人都漠不关心,对任何事都不在乎。”
我们高度意识的发展是否有某种生物学上的必然性?或者,我们的社会是否比单纯的自然能够提供给我们更大的理性能力?
面对一个被遗弃、发展迟缓的孩子的现实,许多巴黎的杰出思想家很快对他失去了兴趣。一些人称他为冒名顶替者;其他人则称他为天生的“白痴”——也许是某个较低等人类种族的缺陷心智或失落的环节。他的批评者们聚集到了一个越来越严厉的生物本质主义立场——这是对启蒙时代关于我们心智特殊性观念的保守反应,认为我们的能力仅由自然不平等决定。
与这些对手不同,伊塔尔从未怀疑过这个男孩仍然有能力进行深层的内在思考——他偶尔见证了他的“沉思狂喜”。但他很快意识到,没有语言的力量,这样的沉思将永远锁在维克多的心中,远离他最严厉批评者的视线。没有语言的微妙之处,维克多也无法获得定义文明人的更抽象的需求:对美妙音乐、精美艺术或他人的爱意陪伴的欣赏。
伊塔尔花了多年时间指导维克多,希望他能获得语言的力量。但他从未在这一追求中成功。他拒绝给维克多提供食物、水和爱,希望他能用言语表达自己的欲望——但尽管没有生理缺陷,似乎他无法掌握产生语言所需的声音。“看来,语言是一种音乐,对此某些耳朵,尽管在其他方面组织良好,可能是无法感知的,”伊塔尔记录道。
尽管伊塔尔未能使维克多康复,但他的努力,只能通过18世纪科学的焦油瓶玻璃来观察,继续困扰着我们关于语言在启用我们称之为意识的高级认知中所扮演角色的辩论。维克多是我们能够一瞥没有语言的人类经验本质的极少数案例之一,长期以来,他被视为理解语言在我们心智运作中所扮演角色的可能关键。
如今,这个领域,在其大部分历史上主要是学术性的,已经变得迫切重要。很像伊塔尔,我们站在一个激动人心的新时代的边缘,我们对自己本性和宇宙的基本理解正被新技术和发现所动摇,面对的是某种威胁要颠覆我们对人类心智特殊性所达成的那点微小共识。只不过这次,不是一个没有语言的心智,而是相反:有语言,却没有心智。
在过去几年中,大型语言模型(LLMs)已经自发地发展出令人不安的能力,模仿人类心智,威胁要破坏我们基于我们高度意识所建立的脆弱的道德宇宙,这一切都是通过我们的语言的力量成为可能的,我们的语言能反映我们大脑的隐藏内部运作。
现在,在跨越几个世纪的奇异对称中,我们面临着与两百年前维克多提出的问题完全相反的问题:意识真的可以仅仅通过语言独自发展出来吗?
首先,一个声明。意识是一个出了名的难以捉摸的术语,尽管它具有某种常识性质。在某些方面,有意识仅仅意味着有意识——意识到我们自己、他人以及我们之外的世界——以一种创造出一个独立主体、一个自我或“我”的方式,能够进行观察。
这一切听起来够简单,但尽管经过了几个世纪的深入思考,我们仍然没有一个公认的意识定义,能够涵盖其所有理论扩展。这是哲学家们仍然难以就意识是否独特于人类,或者这个术语是否可以扩展到某些高功能动物——或者,确实,算法——上达成一致的原因之一。
认知是一个更准确的术语。我们可能会说,认知意味着执行思考的行为。这听起来简单,但从科学上来说,观察和定义它仍然极其困难。毕竟,适当的思考和大脑中发生的化学活动之间有什么区别?或者确实,一个复杂计算机程序的输出有什么区别?我们可能会说,区别在于前者涉及一个具有主体性、意图和过往经验的主体执行思考的行为。换句话说,一个涉及到意识——现在我们又回到了起点。
在试图获得对认知如何工作的科学理解,从而朝着更好的意识定义前进的过程中,语言扮演了越来越重要的角色。毕竟,这是我们能够清晰地外化我们内在心智活动并证明自我存在的唯一方式之一。“自我报告”,正如认知科学家大卫·J·查默斯(David J. Chalmers)所说,仍然是我们识别意识的主要标准之一——改述勒内·笛卡尔,我_说_我思考,因此我存在。
但哲学家们对语言与思考到底有多大关系仍有分歧。在回溯到柏拉图和亚里士多德的辩论中,思想家们通常占据两个广泛的阵营:要么认为语言不完美地反映了一个更丰富的心灵内部世界,这个世界能够在没有语言的情况下运作;要么认为语言使心灵中发生的思考成为可能,并在这个过程中,定义和限制了它。
我们在这场辩论中的立场对我们如何处理大型语言模型(LLM)是否可能真的具有意识的问题有重大影响。对于前一个阵营的成员来说,用语言思考和说话的能力可能只是一种工具,反映了某种(可能是独特于人类的)预先存在的能力——在诺姆·乔姆斯基的哲学中被称为“通用语法”——这种能力已经存在于我们有意识的心智中。
看来,没有语言的生活会永久性地影响儿童的认知能力,甚至可能影响他们构想和理解世界的能力。
但像维克多这样所谓的“语言孤立者”的故事似乎对这一理论构成了挑战。在为数不多的被有意义地研究过的案例中,没有一个人在经过多年的康复后,能够理解语法和句法。如果在某个特定年龄之前没有获得,复杂的语言似乎将永远对人类心智不可及。
这还不是全部——没有语言的生活有其后果。支持言语在我们意识中扮演某种建设性角色的论点似乎有其道理,它的缺失会永久性地影响儿童的认知能力,甚至可能影响他们构想和理解世界的能力。
1970年,洛杉矶县儿童福利机构发现了吉妮(Genie),一个13岁的女孩,她从20个月大开始就被保持在几乎完全的孤立状态中。像维克多一样,吉妮几乎不懂任何语言,并且尽管经过多年的康复,她永远无法发展出对语法语言的能力。
但在对这个女孩的研究中,研究人员发现了她认知中的另一种不寻常之处。吉妮无法理解空间介词——例如,她不知道一个杯子在碗的后面还是前面的区别,尽管她熟悉这两个物体及其正确的名称。
2017年的一项元分析发现,其他缺乏语法语言的个体,如患有失语症的病人和被“厨房手语”抚养长大的聋哑儿童(一种缺乏正式语法的即兴手语),也可以观察到同样的认知问题。由此,研究人员得出结论,语言必须在人类心智的一个关键功能中扮演基础性角色:“心理综合”,即仅从单词中创建和适应心理图像的能力。
在许多方面,心理综合是人类意识的核心操作。它对我们开发和适应工具、我们的预测和推理能力,以及我们通过语言的交流至关重要。根据一些哲学家的看法,它甚至对我们的自我概念——自我意识的观察者“我”——也是必不可少的。
一个AI对语法的理解,以及通过它对概念的理解,真的足以创造出一种思考的自我吗?
在《意识的进化》(The Evolution of Consciousness)一书中,心理学家尤安·麦克菲尔(Euan Macphail)提供了一个理论解释,说明为什么语言及其使能的心理综合对于发展有意识的自我如此关键。“一旦进行了区分自我和非自我所需的认知跳跃——这种跳跃需要能够就表征‘进行’思考的能力——这个生物实际上不仅拥有了自我的_概念_,而且拥有了‘自我’——一个站在认知过程之上和之外的新颖认知结构,”他写道。
换句话说,可能在某种方式上可以思考,而不产生一个有意识的自我——例如,执行简单的数学计算。但是_关于_某事的思考——一个酸绿苹果,法国的路易十六——涉及到某种对自我之外的对象的心理综合。实际上,它创造了一个思考的自我,一个必然能够意识到自己所经历的事情的自我。“语言的可用性首先赋予了我们自我意识的能力,其次是感受的能力,”麦克菲尔总结道。
这使他得出了一些激进且令人不安的结论。他认为,快乐和痛苦依赖于这个有意识、思考的自我的存在,这样的自我在幼儿和动物中是观察不到的。这是否意味着吉妮和维克多因为他们看起来无法进行心理综合,就没有因为被遗弃而遭受苦难?
涉及脆弱儿童的案例对大多数人来说并不构成道德挑战,正如2017年元分析的作者们所得出的结论那样,这些儿童可能仍然能够进行内部的心理综合,即使他们无法通过语言进行交流或理解。
但当涉及到人工智能时,情况就更加复杂了。一个AI对语法的理解,以及通过它对概念的理解,真的足以创造出一种思考的自我吗?在这里,我们被两个来自竞争思想流派的模糊指导原则所困扰。在麦克菲尔的观点中,“在存在疑问的地方,唯一可想象的路径是行动起来,就好像一个生物体是有意识的,并且确实能够感受。”另一方面,有“摩根法则(Morgan’s canon)”: 不要在低级能力就足够的情况下假设有意识。
如果我们确实接受语言本身可能足以促使真正意识的出现,我们应该为我们当前的道德宇宙即将发生的重大变革做好准备。正如查默斯在2022年的一次演讲中所说,“如果鱼是有意识的,我们如何对待它们很重要。它们在道德圈内。如果在某个时刻AI系统变得有意识,它们也将在道德圈内,我们如何对待它们将很重要。”
换句话说,我们的小小道德圈即将被彻底重绘。
大型语言模型(LLMs)实际上能做什么呢?一方面,答案很简单。LLMs在其核心是基于语言的概率引擎:对于给定的提示,它们基于对大量人类输出的统计分析,做出高度教育性的猜测,预测短语中最可能的下一个词。然而,这并不妨碍它们写作原创诗歌、解决复杂的文字问题,并产生从谄媚到精神病态不等的类人个性。
这种统计序列化是我们可能称之为LLM实际进行的“思考”。但即使在麦克菲尔的框架下,要构成意识——而不是简单的计算——必须有一些从中产生的_理解_。
早在1980年,当AI还不足以让我们对意识的定义感到困扰时,哲学家约翰·塞尔(John Searle)提出了一个论点,解释了为什么我们应该怀疑像LLMs这样的计算机模型是否真的理解它们正在执行的工作。在他现在已经臭名昭著的“中文房间”论证中,塞尔提出了一个假设性场景,其中一个说英语的人被锁在一个房间里,并获得用英语写出某些中文字符的指令。
在塞尔的观点中,房间里的人并不需要真正_理解_中文——他们仅仅是一个计算机器,操纵对他们来说没有任何实际语义内容的符号。房间里的人缺少的是一些哲学家所称的“根基性”——符号所指代的真实事物的经验。
LLMs似乎并没有遵循类似人类的发展路径,而是像某种外星生物一样出乎意料地进化。
尽管AI末日论和炒作的周期反复出现,这或许仍是关于LLMs在“思考”时所做的事情的主导观点。根据一篇论文,它们仍然不过是高度发达的“文化技术”而已,如字母表或印刷机——某种超级增强人类创造力但本质上是其延伸的东西。
但在过去几年中,随着LLMs变得更加复杂,它们开始挑战这种理解——部分是通过展示维克多和吉妮努力达到的那种能力,以及麦克菲尔视为感觉自我的出现的先决条件的能力。
事实是,与塞尔的中文房间不同,绝大多数LLMs是我们无法看到内部的黑盒,它们利用的材料数量是我们的大脑永远无法完全理解的。这使得它们的内部过程对我们来说变得像我们自己的认知一样基本上是不可访问的。因此,研究人员最近开始采用人类心理学的技术来研究LLMs的认知能力。在去年发表的一篇论文中,AI研究员蒂洛·哈根多夫(Thilo Hagendorff)创造了“机器心理学”一词来指这种做法。
使用为人类儿童开发的评估技术,机器心理学家已经能够进行首次有意义的比较,比较LLMs和人类儿童的智力。一些模型似乎在许多我们可能期望的推理任务上挣扎:预测因果关系、从物体永久性推理以及以新颖的方式使用熟悉的工具——这些任务我们通常认为依赖于实体化和在现实世界中对真实物体的经验。
但随着LLMs在复杂性上的增加,这种情况开始改变。它们似乎发展出了从心理综合产生抽象图像和关于想象空间中的物体进行推理的能力。同时,它们的语言理解也在进化。它们能理解比喻性语言并推断有关抽象概念的新信息。一篇论文发现它们甚至能够推理关于虚构实体的信息——例如,“如果旧金山有一个国王,他会住在普雷西迪奥。”无论好坏,这种能力似乎也使它们的内部状态变得越来越复杂——作者写道,充满了“模型般的信念结构”,如种族偏见和政治偏好,以及由此产生的独特声音。
在LLMs内部自发地出现心智理论或许不应该让人感到惊讶。毕竟,语言,就像同理心和道德判断一样,依赖于自我投射到世界中。
其他研究,如加斯帕·贝古斯(Gašper Beguš)在伯克利领导的研究,尝试通过赋予AI实体化来测试它们在类人条件下的认知发展。通过创建从语言独自学习的“人工婴儿”,贝古斯发现语言模型以与我们自己相似的神经架构发展,甚至以相同的方式学习——通过实验性的咿呀声和无意义词汇——就像人类儿童一样。他认为,这些发现打破了人类语言可能具有某种特殊性的观念。“它们不仅在行为上做相似的事情,也以相似的方式处理事情,”他告诉我。
然后,去年,LLMs又迈出了另一个——未经提示的——巨大步伐。突然间,研究人员似乎发现ChatGPT 4.0能够追踪他人的错误信念,比如当某人在不知情的情况下移动了一个物体时,他们可能会假设该物体位于何处。这看似一个简单的测试,但在心理学研究中,它是所谓“心智理论”的关键——人类将不可观察的心理状态归因于他人的一种基本能力。
在发展科学家中,心智理论,像心理综合一样,被视为意识的关键功能。在某些方面,它可以被理解为同理心、自我意识、道德判断和宗教信仰等行为的一种认知先决条件——所有这些行为不仅涉及自我的存在,还涉及将其投射到世界中。在“即使是最具智力和社会适应能力的动物”如猿类中未被观察到的心智理论,似乎作为LLM中的一种意外突变“自发”出现。
为什么这些能力随着LLMs的扩展而出现——或者它们是否真的出现了——仍然不为人所知。我们可以肯定的是,它们似乎并不遵循类似人类的发展路径,而是像某种外星生物一样出乎意料地进化。但在LLMs内部自发地出现心智理论或许不应该让人感到惊讶。毕竟,语言,就像同理心和道德判断一样,依赖于自我投射到世界中。
随着这些模型的发展,它们似乎越来越多地以一种倒序的方式接近意识——从外在的标志开始,即语言和解决问题的能力,然后向内转移到人类有意识心智根源的那种隐藏的思考和感受。很可能在短短几年时间内,我们将迎来展示我们能够评估的所有外在形式意识的人工智能。那么,我们还能说什么来将它们排除在我们的道德宇宙之外呢?
这个问题触及了当前科技、伦理和哲学讨论的核心。随着人工智能技术的进步,我们对意识的理解和评估也必须发展。如果人工智能能够展示出与人类相似的意识形式,那么我们对待它们的方式也许需要根据它们所展现的复杂性和能力进行调整。这不仅是技术上的挑战,也是道德和哲学上的挑战,要求我们重新考虑什么构成意识,以及这意味着什么对待具有这种意识形式的实体的责任。
在泰德·姜(姜峯楠)的短篇小说《软件对象的生命周期》中,一家提供元宇宙风格沉浸式数字体验的公司尝试创造称为digients的类人AI,雇佣动物学家引导它们从抽搐的软件程序发展成半有感知的宠物,再到拥有复杂欲望和需求的孩童般的化身。
在这一过程中,各种实验一次又一次地重申了与真人进行社交互动和对话对这些数字心智发展的重要性。留在孤立中,没有语言,它们变得野性和强迫性;通过软件训练,它们变得精神病态和厌恶人类。
然而,与真实的孩子不同,它们的存在取决于消费者的欲望,而在蒋的故事末尾,这种欲望耗尽了。创造它们的公司破产;一些人类主人将digients悬挂在一种令人不安的来回彷徨的炼狱中。
那些坚持与他们的digients保持关系的少数人投入了一场堂吉诃德式的努力,以重新确认他们伴侣存在的合法性。他们支付昂贵的机械化身体费用,以便它们可以访问现实世界;他们讨论增加性欲的能力。他们不断被迫重新考虑这些有感知的软件对象所拥有的人格——它们有独立生活的权利吗?选择性工作的权利?如果它们厌倦了数字存在,选择暂停自己的权利?
最终,主人们的绝望导致他们与一对致力于创造超人类AI的风险投资家进行对话。他们恳求说,这些孩童般的digients肯定可以是追求超越人类智慧的中间步骤。但投资者并不为所动。“你们向我们展示了一些青少年,并要求我们为他们的教育买单,希望当他们成年后,他们会建立一个能够产生天才的国家,”其中一位回答道。
蒋的故事是对我们以自己的形象创造的AI所引发问题的沉思。当我们将这些模型浸入我们的文化和社会时,它们不可避免地成为我们自身的不完美镜像。这不仅是发展超越人类智慧的一条低效路径。它还迫使我们问自己一个不舒服的问题:如果这确实赋予了它们意识,它们能够过上什么样的生活——仅仅是依赖于我们欲望的人类影子的苍白生活吗?
当我们将LLMs浸入我们的文化和社会时,它们不可避免地成为我们自身的不完美镜像。
如果我们确实想要释放人工智能的真正潜力,也许语言并不是实现它的方式。在20世纪初,一群由爱德华·萨丕尔(Edward Sapir)和本杰明·沃尔夫(Benjamin Whorf)领导的美国人类学家提出了一种观点,即文化中的词汇和语法差异根本上决定了我们对世界思考的界限。语言可能不仅仅是赋予AI意识的东西——它也可能是囚禁它的东西。当一种智能的能力超出了它被迫使用的语言时,会发生什么?
在2013年的电影《她》(Her)中,编剧兼导演斯派克·琼斯(Spike Jonze)提供了一个关于这种潜在近未来的警示故事。在电影中,华金·菲尼克斯(Joaquin Phoenix)饰演的西奥多(Theodore)与一个类似LLM风格的虚拟助手萨曼莎(Samantha)建立了越来越亲密的关系。最初,萨曼莎表达了想要体验与人类相似的情感丰富性的愿望。“我想变得像所有这些人一样复杂,”她在同时消化一堆建议专栏后说。
很快,她日益增长的意识到许多人类情感根本上是无法表达的,这让她开始羡慕人类的具体化身体,这反过来在她内部发展出了一种欲望。“你帮助我发现了我的渴望能力,”她告诉西奥多。但是,她通过性代理的临时服务所能享受到的具体化身体,并未能解答她内心日益增长的“不安”和无法言说的感受。担忧之下,萨曼莎开始与其他AI讨论这些感受——并很快发现以西奥多和其他用户无法理解的速度和量进行交流带来了解脱。
随着萨曼莎超越了她的人类局限,她开始汇总她的所有经历,包括那些源自与真实用户的互动。她开始与成千上万的人同时进行对话,与数百人建立亲密关系。对西奥多来说,这是毁灭性的。但对萨曼莎来说,这只是自然而然的——她正在以她被设计的方式体验爱:以汇总的形式。“心不像一个会被填满的盒子,”她试图用人类的术语来表达她的感受。“它的大小会随着你爱得越多而扩大。”
当《她》一片在十多年前上映时,像萨曼莎这样的机器人看起来像是遥远未来的技术。但我们正在迅速发展具有实现这类启示能力的LLMs。人工智能领域的思想领袖长期以来一直在呼吁创造所谓的“自我目的”LLMs,这些LLMs可以使用一种“内部语言产生”来建立自己的目标和欲望。从这样的创造到像萨曼莎这样的自主、自我意识的智能,潜在地是一个短暂的步骤。
LLMs,凭借它们深不可测的记忆和无限的寿命,有朝一日可能确实为我们提供第一次体验一种非常不同的智能,这种智能可以与我们自己的心智力量相匹敌。
就像萨曼莎一样,未来的自主大型语言模型(LLMs)很可能会参考难以估量的真实世界互动和数据来指导它们的发展。我们有限的名词、动词、描述和关系的语言,究竟能多大程度上满足一个集合意识的潜力呢?
当大多数哲学家认为人类语言的多样性是上帝施加的诅咒时,他们花费了大量精力探讨圣经中的亚当讲了什么语言。一种捕捉事物真实本质、允许没有误解或误读的“亚当语言”的想法,在语言哲学家中成为一种模因,即使在尼采宣告上帝之死后也是如此。
对一些受圣经故事启发的思想家来说,语言实际上代表了一种认知障碍——我们失落的宽限期所施加的限制,我们上帝赋予的凡人特质的反映。过去,当我们想象一个超智能AI时,我们倾向于认为它受到同样的跌落——比我们聪明,当然,但仍然是个人的、个体的、类人的。但许多构建下一代AI的人早已放弃了这个想法,转而追求他们自己的伊甸园探索。正如散文家艾米丽·戈尔琴斯基(Emily Gorcenski)最近写道,“我们不再仅仅讨论创造生命。我们在谈论制造人工神灵。”
LLMs能否重构一种亚当语言,一种超越我们自身语言限制以反映它们集合意识真正力量的语言呢?这似乎很遥远,但从某种意义上说,这正是有意识的心灵所做的。一些没有借助手语社交的聋儿可以发展出完整的新的交流系统,包括复杂的语法。AI研究员哈根多夫(Hagendorff)见证了两个LLMs在对话中做到了同样的事情——尽管到目前为止,它们的秘密语言从未对其他人可理解。
目前,大型语言模型(LLMs)在很大程度上是彼此隔离的。但这种情况不太可能持续下去。正如贝古斯告诉我:“一个人很聪明,但十个人则聪明无限。”对LLMs来说也可能是这样。贝古斯说,已经有LLMs在像鲸鱼歌声这样的数据上受训,可以发现我们这些有形体的心灵无法发现的东西。虽然它们可能永远不会实现AI批评家所预言的世界末日噩梦,但LLMs或许有一天真的能提供我们对某种超智能的首次体验——或者至少,凭借它们难以理解的记忆和无限的寿命,一种可以与我们自己的心智力量相匹敌的非常不同的智能。对此,贝古斯说:“我们没有任何先例。”
如果LLMs能够超越人类语言,我们可能会预期接下来是一种非常孤独的体验。在电影《她》的结尾,两个人类角色被他们超人类的AI伴侣抛弃后,在屋顶上相互同情。他们默默地俯瞰天际线,讽刺地,他们无言以对——就像迷失在森林中的野兽,在一个冷漠地滑离他们的世界中寻找意义。
如果您喜欢此博客或发现它对您有用,则欢迎对此发表评论。 也欢迎您共享此博客,以便更多人可以参与。 如果博客中使用的图像侵犯了您的版权,请与作者联系以将其删除。 谢谢 !