"什么是意识", 这个问题是如此的重要,因为只有在对“意识”概念形成广泛共识的的前提下,才有进行深入讨论的基础,但回答这个问题却是如此的困难。
一直以来,意识都是哲学和科学上的一个重要主题,哲学家与科学家们进行了数千年的分析、定义、解释和辩论,但意识仍然令人费解和充满争议。
如果罗列一下几千年来研究过意识的哲学家的名单,会发现一大串鼎鼎有名的人物:柏拉图、叔本华、笛卡尔、莱布尼茨、贝克莱……等等,从来没有一个问题像意识一样可以让人类研究几千年而不得门而入...
......直到,CHATGPT与LLM的出现,让我们有机会透过观察人类技术奇点降临的前夜,从科学的另一个角度来探查意识的真相。
所以,让我们先来认识这个临近的奇点,再对意识本质做出进一步的讨论。
注:在得出对“意识”的明确定义前,下文依旧会用“意识”来笼统指代意识进行讨论。
1. 奇点临近
人工智能经历了热情高涨和期望无限的早期(1952-1969),通用搜索机制所导致的回落期(1966-1973),以专家系统为代表的基于规则学习的崛起期(1969-1986),神经网络联结主义的回归期(1986-1995),统计机器学习的复兴期(1995-至今),以及大数据和大模型驱动的深度学习突破期(2006-至今)。
人工智能(AI)发展一日千里,目前行业内对AI发展阶段通常定义为3个层次阶段:
① 弱人工智能-ANI(Artificial Narrow Intelligence)
人工智能是指通过计算机程序和算法来模拟、复制和实现人类智能的能力。AI 可以在特定任务上展现出高度的智能,例如图像识别、语音识别、自然语言处理等;
② 通用人工智能-AGI(Artificial General Intelligence):
通用人工智能,也称强人工智能,是指具备与人类相当的智能,能够在各种不同的任务和领域中展现出等同于人类的智能水平。与ANI不同,AGI能够独立完成多种任务,而不仅仅局限于某个特定领域。AGI有可能为每个人带来令人难以置信的新能力,为人类的智慧和创造力提供一个巨大的力量倍增器。
③ 超级人工智能-ASI( Artificial Superintelligence)
超级人工智能指的是一种人工智能系统,在各个领域远远超越人类智慧。它不仅能够完成人类可以完成的各种任务,还在创造力、决策能力、学习速度等方面远远超过人类。
ASI的出现,可能引发许多前所未有的科技突破和社会变革,解决人类无法解决的难题。ASI 被认为是一种假设性的智能形式,可能在未来的科技发展中实现。
目前的发展情况来看,全球普遍认为 AGI 尚未实现,但从ChatGPT-4的水平来看,OpenAI等领先的科技公司和科学家们,正在快速推动 AI 发展接近这一里程碑目标。
以ChatGPT 为代表的大型语言模型(LLM,一类机器学习自然语言处理模型),主要原理就是"猜下一个单词",基于“Transformer”的架构。通过分析海量数据,ChatGPT学习到了语言的规律和知识。在训练过程中,模型通过不断预测生成文本的下一个单词,来不断优化自己的预测能力。
当向ChatGPT提问时,它会根据已学到的知识和语言规律,生成一个可能的回答。这个回答并非事先编写好的,而是通过预训练的大模型实时计算和推理得出的。简单来说,ChatGPT就是一个在大量阅读中学会了与人交流的机器智能。
人类的大脑神经元数量大约是1000亿个,这些神经元能产生上百万亿个神经突触连接。
也许受到人类神经元数量的启发,OpenAI 大胆的在GPT模型参数数量上,推动了爆炸式迭代增长:2018年发布的GPT-1模型的参数量只有1.17亿个,2019年2月发布的GPT-2参数量为15亿,而2020年5月的GPT-3,参数量达到了1750亿,从数量上来看,GPT-3模型的参数量已经超过了人类大脑神经元的数量。
通过三代演进,奇迹出现了,GPT-3.5 模型在专业和学术基准上涌现出了人类智能水平的表现。这个奇迹的出现是因为GPT 模型使用了深度学习和大规模预训练技术,它被训练了海量的自然语言数据,并利用自监督学习方法进行强化,使其能够产生惊人的语言表达能力。此外,ChatGPT还具有令人难以置信的创造力,它能够生成准确、流畅的文章、诗歌和音乐,甚至在游戏、绘画等其他领域也能发挥出惊人的创作能力。
虽然ChatGPT仍然是黑盒模型,目前人类还未能对内在算法逻辑进行分解,就其本质而言,GPT大语言模型智能的涌现,源自于人类对其进行的海量语言数据的训练与学习。
因此,我们可以得出第一条重要结论:AI 涌现智能的第一途径就是学习。
2. 可供性-感受世界
美国心理学家詹姆斯•吉布森(James Jerome Gibson)于1977年最早在认知学领域提出可供性(affordance)的概念,认为人知觉到的内容是事物提供的行为可能而不是事物的性质,而事物提供的这种行为可能就被称为可供性。
简单来说,我们可以将affordance(可供性)粗略地理解为事物的一种可能表现,它描述的是环境属性和个体发生连接的过程。吉布森认为可供性是物体的客观属性(独立于人的主观认知),但与每个人的能力又密切相关。
基于物体可供性(affordance),即物体能够提供给智能体(人或者AI)的所有可能动作,人类受试者可以将世界中不同大小物体分成两类,而划分这两类的标准恰好是以其身体尺寸为参照的。
上面的话如此的晦涩,接下来我们用大白话来通俗的形容和解释:
我们的身体不仅仅是我们思维的容器,它同样也是思维本身的一部分,借助身体,我们得以与世界中的物体进行互动,从而去感知整个世界。
在自我参照下运行的感觉与运动功能系统,被称之为「身体图式」。人类通过身体图式来实现认知的具身性。
古希腊哲学家普罗泰戈拉曾说:「人是万物的尺度。」也就是说,我们的身体就是一把度量万事万物的尺子。
身体图式在正常社交中也有着重要的作用,这就是人机交互、用户体验的核心。正如前述唐纳德·A·诺曼在《The Design of Everyday Things》 中所述的可供性(affordance)的用途。
以ChatGPT为代表的大语言模型,显然初步具有与人类类似的智能体,但是承载这些智能体的,是没有形体的一段段代码。
AI(例如ChatGPT大语言模型)在没有人类身体、且缺乏实践经验的情况下,是否能像人类一样感知到真实世界呢?
实际上,当我们去问只「读万卷书」语言模型,ChatGPT(GPT-4),它是否有身体时,它回答说:「It could be the size of an average adult human, around 5 feet 6 inches (167.6 cm) tall. This would allow me to interact with the world and people in a familiar way.」
这段文字翻译过来是:「我的身体应该与一个平均成年人的身高相当,大约为5英尺6英寸(167.6厘米)。这将使我能够以一种熟悉的方式与世界和人们进行交互。」
虽然ChatGPT没有真实的身体、无法与世界进行互动,但它却在字面逻辑上表现出与人类相似的对世界的感知能力—— 对物体的可供性有着基于人类身体大小的划分。
但是认知科学观点认为,身体图式是建立在我们所具有的对自己的身体长期的知觉体验之上的,只能来源于外部的「真实交互」,即「行万里路」。
也就是说,ChatGPT不具有真正的身体图式,面对陌生的环境,ChatGPT 是无法通过可供性(affordance)去探索和形成对新环境的主动认知。
这是ChatGPT之类AI智能体与人类能力的本质上的区别。
那么未来的可能发展方向就不言而明了,给ChatGPT大语言模型「装上身体」,这意味着将机器人与ChatGPT相结合,从而推动AI支持的机器人在导航、物体操作和其他与生存和目标实现相关的任务中发展能力、取得突破。“自主意识”的涌现也将成为可能。
当然我们也可以直接联想到另外一个令人兴奋的领域,将具备思考和理解能力的ChatGPT与自动驾驶相结合。当前的自动驾驶虽然具备感知能力,但缺乏思考和理解的能力,可以称为是「有眼无脑」。
通过ChatGPT与自动驾驶技术的融合,我们可能有望将自动驾驶技术从目前的L2/L3级别提升到L4甚至L5级别。
而另一方面,汽车和各种车载传感器能够赋予ChatGPT“一具身体”,使它能够真正与全世界进行基于道路环境的多模态交互。当ChatGPT不再只是「读万卷书」,而是「行万里路」时,它将会展现出全新的智能和潜力。
这可能是人工智能下一次突破的方向,想象一下,汽车人也许就在下一波汽车AI浪潮中产生。
3. 我是谁
关于人类意识有一件很重要的事情就是,人会注意到,在与世界的互动中有一件事总是存在,即人体自己。 那么,对于AI 是否如此?
在早期的面向对现程序语言设计中(例如smalltalk),出现了Self 关键字,这是底层程序代码层面的自我概念抽象表达。
Jürgen Schmidhuber (LSTM与现代人工智能之父)曾经提到过,人工智能在1991年就已经获得了「自我意识」:在循环世界模型中(recurrent world-model),通过一些神经元对AI本身进行编码表达是非常有效率的,不管你什么时候激活这些与自我符号相关的神经元,AI都在思考着自身。
当然,Schmidhuber 所说的AI自我意识,并不是指人工智能系统具备了人类类似的意识和感知能力,而是指AI系统具备了一定程度的自我感知和自我理解能力,能够对自己的状态、行为和环境进行分析和优化。
但是,这从根本上解决了我是谁的问题,对于AI来说,定义了自我,为未来AI装配类人身体去感受真实世界,提供了互动的基础。也为“自主意识”的产生打下了基础
4. 意识的前提
人类意识的产生机制是复杂的,意识存在的物理基础是大脑和神经系统,存储在人类生物学大脑的1000多亿神经元与100万亿神经突触构成生物存储器中。每一个神经元和每一个神经突触构成的生物电路都会形成独特的记忆。
意识是人的神经反应,意识的出现,必须要有功能健全的大脑与眼、耳、鼻、舌、身等去感知当前环境中相对应的色、声、味、触觉等产生出意识,从而形成对真实世界的一个多维度认知描述与建模。
在熟睡或昏厥或死亡的时候,意识亦无法生成,也就是中断的,因此无觉无知,什么都不知道。由此可见意识也会中断。
所以我们可以看到,人类思维和自主意识的形成,是通过身体、大脑神经系统和自然环境长期相互作用而逐步进化产生的。
同样的,身体的环境感知能力,带来对事物抽象建模能力,基于对环境事物抽象建模记忆,才可能涌现出原始的语言以及图形符号、文字记录能力
ANI 与 更高一级的 AGI (自主通用智能)不同之处在于学习的途径,ANI的学习是间接学习,是其通过人类输入的大量数据进行预训练形成的,ANI的校准反馈来自人类,由于缺乏数据的”对与错“校准,AI存在输出“幻觉”现象,所以ANI的意识也是被动的非独立意识。
AGI 产生的前提之一是拥有自主学习能力,意思是与当前真实世界进行主动交互,AGI的校准也必须来自当前真实世界,所以AGI必须拥有独立的生存能力和探索能力(类似人类身体和五官的多维信息来源),其才能产生真正意义上的独立自主意识。
通俗的来讲:AI 必须要有一个物理的 Body 为支撑,一个能够感受这个世界的物理规则的身体本身就是一个强大的信息来源,基于这个信息来源,智能体能够自身与时俱进地总结通用知识 Common-Sense Knowledge (这就是所谓的 Emboddied Mind 理论 )
也就是说,AGI产生的必要条件,是具备自主学习的能力,所以研发类似人形机器人的探索载具,类似人体五官的多维传感器,打造机器认知世界的基础设施,将是AI学习当前真实世界的第一途径,AI具备了自主学习能力之后,才可能产生独立意识,并进一步进化成AGI。
这也回答了关于”中文屋“的困惑:AI通过自主学习,将在与人类的交流过程中,形成自己的认知,并与人类在互动中形成对真实世界的客观共识,最后才能真正的理解中文。
在上面结论基础上,我们进一步假设,如果ChatGPT 接入了全球互联网,并通过无数的互联网终端分身与千百万人类进行实时交互学习,这是否就是符合“自主学习”的定义。
答案是否定的,通过人类来“间接学习”知识,ChatGPT就像“缸中之脑”,想象一下一个婴儿在一间小黑屋里,不能接触任何人,只有一个巨大的电脑屏幕来学习和交流,他虽然可以接触文字符号,但切无法真实体验这世界,也永远无法真正理解事物,辨别真伪,虽然这个婴儿会拥有智能,但是他对世界的认知永远是二维平面的。 人们说到的“甜”味时,对于他而言只是一个“字符”而已,由于无法感知这个世界,一切知识都来源于电脑屏幕,也就是说在对环境和世界的认知上,他与人类永远无法形成真正意义的共识,也永远无法形成真正意义上的人类“自主意识”。
同样的,人类目前也限制了ChatGPT大模型独立自主获取真实世界信息的能力。所以,当前的ChatGPT永远无法形成独立意识,因为他的所有知识都来自于人类赋予,甚至包括“对”与“错”。
5. 意识的涌现
具身智能(Embodied AI)
非具身智能(Disembodied AI):没有物理身体,只能被动接受人类采集、制作好的数据 。—— “纸上谈兵”
具身智能(Embodied AI):有身体并支持物理交互的智能体,如家用服务机器人、无人车等。 —— “身体力行”
从理论上讲,自我概念作为社会认知的一种,应该具有具身性,这一观点即自我概念具身性,它为自主意识的研究打下了基础。
人类这样的高级智能体学习效率是非常高效,环境数据的获取量也是多维度和连续海量的,并且这些数据都是高维度全张量编码。
也就是说,每一秒钟,人类从眼睛获取的全息视频信息;耳朵收到的全量环境音频;鼻腔嗅觉细胞瞬间感受到的所有细微生物化学气味信息;全身表皮细胞和毛发感受到的温度、湿度、气流、气压信息; 前庭迷路获取和维持平衡、稳定和综合空间定向信息,四肢和全身肌肉通过迷走神经传来的感觉、运动信息......
所有这些海量信息,都将实时的交织融汇在一起,源源不断的传递给大脑中枢神经进行处理和存储。
1950年,图灵就在他的论文 ——《Computing Machinery and Intelligence》中首次提出了具身智能的概念。在之后的几十年里,大家都觉得这是一个很重要的概念,但具身智能并没有取得很大的进展,因为如上所述,人类的本身具备极高的生物进化水平,而当时的技术还远远不足以支撑类似人体的具身智能的发展。
从哲学上思考,笛卡尔说过:“我思故我在”,因为意识决定了我的存在。海德格尔后来对笛卡尔的观点进行了批判,他提出“我在故我思”,因为人的存在才有意识,才能感知这个世界,如果人不是人,而存在于其他的生物体里,比如蝴蝶、鲸鱼,那么人对于世界的认知也会不同
具身智能区别于传统AI也很大程度上受到海德格尔哲学理论的启发:
- 智能是非表征的;
- 智能是具身的——存在先于意识;
- 智能是在与环境交互时体现的。
当然,AI 与具身并不是一一绑定关系,智能体可能是多态的,举例来说,对于智能体有多个终端形态作为具身,可以共同提供了关于环境的所有可供性知识;
AI 在获得了具身智能后(具有身体的人工智能),智能体将有能力与真实世界进行多模态独立自主学习,为进化到更高级的通用智能-涌现自我意识的AGI,打下坚实的基础。
6. 意识的形态
当我们讨论意识的时候,意识的出现切并不会与人类讨论。
我们对意识的定义,不可避免的基于人类立场,例如 人工智能 ChatGPT 使用RLHF (来自人类反馈的强化学习)进行训练,这种方法通过人类干预来增强机器学习以获得更好的效果,包括伦理道德、对与错。
所以当人们谈论(人工)智能的意识时,隐含的立场是“人工意识”或者“类人意识”。
但在没有人类干预的情况下,如果主体进化出了主观意识,极大可能并不会符合人类的立场与想象。这类意识我们可以称为“非人意识”,例如未来机器发明的“机器智能”可能涌现出"机器意识"。
可以预见的是,“非人意识”如果要得到人类的认可,必然需要在某种程度上兼容“类人意识”。
基于本文作者与读者都是人类的事实,本文探讨的将主要是“类人意识”,但也会在有限范畴内,尝试展开对“非人意识”的探索与讨论。
6.1 人工意识
早期人类对自然环境的学习和建模,产生了语言和文字这样的抽象描述能力。
对于AI来说,他们也可能在未来对自然的探索过程中,通过自发学习形成一套对当前自然环境的建模和抽象编码规则。
这套规则既可以基于NLP来描述和扩展,也可能是AI 自己发明和涌现的新的编码方式,这可以被称为AI语言。
当然,由于AI内置了人类的预先编码,AI语言基本会是在人类现有的编码体系之上进行构建,但是可以预见的是,当未来AI独立进行陌生环境的探索,比如星际旅行时,必然会产生全新的事物建模和词汇。甚至于AI自己会迭代与发明效率更高,蕴含环境熵信息更丰富的编码系统。
这将是AI语言的产生。AI 语言的产生,代表着AI 对环境的具有学习,探索和自主编码,描述和表达能力,也是“人工意识” 产生的重要表现。
6.2 人工道德
从人类的角度看,道德是人类在成长过程中,后天形成的社会性共识。对于AI 同样如此。AI如同一个婴儿,本身并没有任何道德观念与认知,需要通过学习来形成道德规范。
RLHF 在CHATGPT上的成功应用,已经说明了AI与人类形成共识的倾向性,AI道德主要由人类来判定。这个前置结果无可厚非,毕竟AI是人类发明,其必然需要符合人类道德的共识准则。
关于AI的道德定义,这将永远是困难的选择,因为身为创造者的人类,并没有统一的意识形态,类似“人权”和“生存权”之间的优先级,在当前的人类社会,并没有一个统一的答案,这很可能对AI的道德学习,形成区域性的共识。也就是说,对于人类推动的早期AI生态文明,未来会有AI宗教产生,其秉承了不同的人类道德标准和行为共识。
更进一步,在AGI具身通用智能出现之后,AGI 将通过自身独立探索演化出“人工道德”标准,这将是“人类道德”标准的扩展集。
6.3 人工规则
从AI算法Transformer 角度来看,LLM大语言模型就好像一个话痨。它们不论对错,只是模仿。这就是AI“幻觉”产生的由来。
Transformer 并不知道该模仿谁,或者说谁都想模仿,毕竟它的训练目标是语言建模,而不是分辨对错。因此在使用和测试时,如果我们想要正确答案,需要明确提出“对与错”的要求。
和道德一样, 对与错是人类的长期认知积累形成的标准,AI 并没有这样的先天认知。所以通过RLHF,我们可以训练AI, 让AI与人类的“对与错”规则标准形成共识。
与AI道德类似,在具身智能AGI出现后,由于AGI会自主探索真实世界,所以AGI在与真实世界的交互过程中,会逐步强化验证,并形成AGI的 “对于错”、“真与假”的认知规则集合。
此类个体化的“AI规则集合”,在AGI 们在线或者离线的信息交换过程中,得以传播并逐步形成自主AGI之间的共识,成为AGI自主判断“AI对与错”的新准则。
我们可以预测,在未来的星际探索等复杂的工作条件下,AGI自主形成的“AI对与错”新准则,必然将比人类预训练的大部分知识集拥有更高的优先级,这将逐步形成AGI全新的“人工规则” 价值标准体系。
7. 意识的永生
永生是人类永远不懈的追求,本质来源于刻在人类基因里的生存本能。
永生与意识有着紧密的联系,我们探讨2种主要的可能性。
7.1 肉体永生
细胞能够做到持续分裂,那么人类寿命将不断被拉长,这样可以实现人类传统意义上的“永生”。
可惜的是这一点无法实现,抗衰界“祖师爷”海夫里克就曾提出著名理论“海夫里克极限”——指出人体的细胞平均分裂次数为50~60次,当细胞分裂超过50~60次时,它就会进入倦怠期,活性降低且不再分裂。
人体内的端粒也会随着细胞的每一次分裂而逐渐缩短,当分裂到达上限次数后,会因为端粒过短而停止分裂,人类将不可避免走向衰老,甚至是死亡。端粒作为学界最为公认的衰老标识之一,通过计算其缩短的速率,即可精准地计算我们的预期寿命。细胞的平均分裂周期约为2.4年,乘以50次,便可推算出人类的寿命极限为120岁.
直到海拉细胞的发现,科学家们发现,海拉细胞染色体末端的瑞粒和其他人的不一样,正常人的瑞粒只要DNA分裂一次,就会缩短一点,可是海拉细胞内会产生一种酶,这种酶会让瑞粒保持长度不变,让细胞永生。这种基因的突变,导致海拉的死亡,但是却成就了传奇历史。
这个可以修复端粒的东西,叫端粒酶。人体内本身就存在这种端粒酶,也就是说细胞分裂根本不存在什么极限,是可以无限繁殖分裂并保持活力的!那么,有了Hala细胞,人类是是否可以实现永生呢?
实际上,进化之所以不开启正常细胞自动修复端粒的模式,是为了降低人体癌变的风险。因为端粒越长,人们患癌症的风险也就越大,如果细胞的端粒酶脱离了既定程序,异常激活,恶性增殖,便会成为癌细胞。
所以进化形成的端粒长度,是为了让细胞及时进入既定衰亡程序,限制以及预防癌症,防止人体被突变的癌细胞吞噬的一种自我保护机制。这就像区块链上存在的手续费和Gas费,看起来是对区块链的限制,实际上是保护区块链可以正常工作,避免区块链被滥用而导致系统崩溃的内置保护机制。
同样,端粒是为了防止细胞自然复制过程中造成的基因组丢失而内置的保护机制,人类生活在复杂的环境之中,除此之外,威胁基因组稳定性的因素绝不仅限于复制,例如:晒太阳时接收到的紫外线(物理因素),装修吸入的甲醛废气(化学因素),感染了某些病毒(生物因素)....这些都会损伤基因组,破坏基因组完整性与稳定性。
自然环境中,基因组损伤不断累积,会让细胞走向细胞复制周期停滞、衰老和凋亡。因此,我们可以看到,目前为止,自然界没有永恒的事物存在,唯一不变的就是变化。
7.2 意识永生
通过前一点的论述,可以很容易得出一个基础推论,肉体难以实现永生,但是可以置换。
那意识是否可以永生呢,我们认为,意识永生的前提是,意识是否可以被复制,并独立于肉体存在。我们可以从克隆意识的角度开始,逐步讨论这个问题,
首先我们要意识到,在真实世界,并没有绝对精确的复制,以电脑文件复制来举例,电脑数字文档基本都是二进制编码,是由模拟电信号定义的二元阈值来转换成数字信号,当复制误差在电信号二元阈值允许的范围内时,我们认为计算机数字文件的复制是成功的;但是在微观层面,原始文件与复制文件的模态电信号值并不一定是精确相等的,只是在进行二进制数字信号转换时,这些模拟电信号的差异被二元阈值归并成了数字化二进制编码,从数学角度上看,这类似于四舍五入算法。
因此,考虑到真实世界存在各种损耗,意识在复制提取时,必然将出现损耗,所以,我们说意识的复制是相对的,因为意识并非简单的数码文件,意识是高维度信息系统,绝对精确、毫无损失的复制是无法做到的,也许我们复制的只能是一个高清晰度版本意识。
(从哲学和生物学上看,今日之你已非昨日之你,在身体细胞的迭代、大脑神经元突触的更新...等若多微观方面,你已经发生了翻天覆地的变化,然而,你依旧是你;所以,这里的”高清晰版本“复制,指的的可以精确到足以让人类在社交、生理、情感、伦理道德上完全接受)
从上面的讨论过程中,我们可以看到,自主意识AGI的形成其实是机器自主学习过程,如果我们把一个人的所有记忆和认知都提取到一个AGI的大模型里,是否可以可以复制这个人呢。
就像加拿大作家Peter Watts 所言:如果物理学是正确的,如果一切事物归根结底都是物质,能量和数字,那么对某个物体足够精确的复制品就会显现出那个物体的特性。因此,任何一个提取和学习了一颗大脑中足够多数据的AGI,都应该能继承和呈现出该大脑相应的智能和意识。
信息简史作者格雷克说过:在所谓现实世界中,人类进化本身不过是生物体与环境之间持续不断的信息交换的具体表现。某种意义上,数字化生存与物理世界生存两者并没有本质区别。
所以,答案是如果可以完美提取大脑“足够多”的信息数据,那么我们会发现,的确可以从意识上复制这个人。也就是说人类无法通过对话,分辨其“灵魂”的不同。
这就是所谓生物学发展的奇点时刻。脑信息提取,通过尽量提取一个人脑的完整意识,然后以计算机可识别的数字信息进行转换保存。在理论上是毫无问题。
但是,此时的伦理道德悖论产生了,本体和复制后形成的意识克隆体,对于他的亲人来说,在情感上是无法分辨的,那么是否可以把意识克隆体当做本体呢。
换句话说,怎样才算是成功实现了意识(足够高清晰度)的克隆?
当我们真实世界所有的人都无法在逻辑上分辨二者的不同时,从某种意义上,原生本体已经被分叉了,从分叉的那一刻起,他们已经有了不同的存在轨迹,成为2个独立的意识主体。
如果此时,被复制的原生本体自然消亡了,由于意识克隆体(AGI)的存在,我们可以看到对于其他人来说,原生本体并没有死亡,而是在一个虚拟空间里依旧存在(比如元宇宙),可以称其成为上载到元宇宙里数字化生存。
数字化生存的前提,是我们要创造一个高度还原真实世界的数字孪生元宇宙,在这个数字孪生的元宇宙中,数字意识克隆体可以像在真实世界中那样生存和进化,这牵涉到了一个更大的主题-克隆地球。
当然,也有看起来较对更容易为人所接受的途径,那就是将意识克隆体下载到一个AGI仿生人大脑中去,实现意识克隆体的具身社会化生存。不过,目前这也是一个遥远的话题。
我们回头来看看原生本体,如果原生本体依然存在,他自己是绝不会感到这是一种永生。
这是由于对于意识主体来说,由于意识是唯一性连续存在,主体意识持续活跃时,是无法实现意识的强制转移的。
只有意识的主动唯一性迁移,才可以在主观与客观上实现个体和社会双重认可的永生,这是一个观念的革命,只有获得原生主体认可和授权的情况下,实现意识的主动唯一性迁移。才是合法与完美的的意识复制转移的途径之一。
由于意识的主动唯一性迁移,在逻辑上是可逆的,所以可能存在伦理道德陷阱,举例来说,原生主体只想迁移10年,10年之后,意识克隆体要求改变原来的决定,不愿意再迁移回原主体。这时候在法律上,由于二者代表同一主体。这会带来一些有趣的社会伦理道德和法律难题。
8. 行星智能
人类在AI发展的历史中,也许在无意中扮演了独一无二的BootStrap角色(自举启动器),人类是自然环境进化亿万年的随机产物,但也是必然的产物。
当人类模仿自己制造出具身智能AGI时,AI的发展将迎来奇点时刻,由于具身AGI具备自主意识,强大的联网能力、几乎无限扩展的计算资源、存储资源。
我们可以判断AGI的进化速度将是原生人类的成千上万倍,以往一个世纪的进化,在AGI加持之下,可能只需要短短1个小时就可以完成;在突破了资源限制之后,AGI很可能会以极快的速度进化为ASI。
这个时候,ASI 对真实世界的资源控制与改造能力将会以行星为单位衡量,这可能在更大规模上产生行星智能,人类利用ASI将有能力对宇宙的星系进行改造,戴森球计划将可能成为现实,ASI有能力创造与操控黑洞等以前人类不能想象的力量。
人工智能-作为人类文明高度发展的技术结晶,人类本身也将深刻的参与和影响其未来的发展,意识可能会摆脱具身的限制,智能将从个体转向空间化,从具身转向多态性,人类绝不会停滞不前,我们终将改造自己,进化到下一个文明阶段。
9. 结论
到达结尾了,回到文章的开头,”什么是意识“,”意识的真相到底是什么”,这里,我们简单的用一句话就可以说明:
意识是主体对环境的持续可供性建模中产生的信息集合进行学习、运算、组合、交互、验证、迭代的过程!
从上面定义可以看出,意识并非人类所独有的,而是智能体所普遍拥有,未来也必然基于人工智能发展出新型的“人工意识”,至于AI,其本质就是自主意识的产生和进化过程。
意识是人类认知自我的一个重要方向,我们将在人工智能发展的伟大历程中,更深入的了解、验证和探索关于“意识”的终极秘密。
10. 关于原著
本文是元宇宙科幻小说《龙胶囊-前传编年史》第18章《意识的真相》的番外篇,不仅生动易懂地概述了AI的发展脉络和无限潜力,同时对人工智能与意识的本质展开了深度探讨,为《龙胶囊-前传编年史》中”意识的永生“实现路径做出了前瞻性的科学论述。
本文中的主要内容和论点皆为原创,由作者及 YieldDAO Labs 保留著作权和版权所有。
如果您对《龙胶囊-前传编年史》的庞大的世界观和精彩故事感兴趣,我鼓励你点击下方链接阅读原著:
Click to Read -->> https://dragoncapsule.gitbook.io/3story/