2023年总结


在很小的时候,受到了诸如黑客帝国、终结者等影视作品的影响,从小便对智能充满了无限的憧憬和向往,认为做出一个智能机器人是一件很酷的事情。而长大后,等自己真正的从事智能相关的行业的时候,尽管现在的人工智能和影视作品中的人工智能,虽说不是天差地别吧,但也是差得有点多。

去年是人工智能爆发的一年,各种的大模型层出不穷,效果都挺惊艳的,不断地挑战着人们的想象力。在这智能的狂潮中,又应该泛起一丝怎样的涟漪呢?

1. 真正的智能

说到人工智能,那就得先回答什么是智能?

所谓智能,简单的说文解字就是,智者,智力也;能者,能力也。早在《荀子·正名篇》便提到,“所以知之在人者谓之知,知有所合谓之智。所以能之在人者谓之能,能有所合谓之能”,大概的意思人对外界的认识和掌控就是智能。到了西方的启蒙运动,各哲学流派基本讲究一个以人为本,人是万物之灵,智能成了人类的固有属性。

所以无论东方还是西方哲学,智能一词,本身就归属于人类,与人类绑定,只有人类才有智能。所以是否智能,一定是以是否表现得像人作为标准的。例如,著名的图灵实验,其标准便是是否可以区分是与机器还是人类进行交流。

那现在的人工智能是否是真正的智能呢?

持否定观点的看法一般都会偏向认为,当前的智能都是基于搜索,只能在有限的知识库里面,按照概率,排列组合出相应的结果,其实质不过是一堆的数学矩阵经过一堆的数学运算得出的结果,其无法像人类一样思考,像人类一样进行创造,像人类一样拥有意识,所以不是真正的智能。

1.1. 思考

什么是思考?

再给出思考的定义前,非常有必要先给出思考的适用范围,即是否只有人类才有思考。如果硬是要根据其答案划分,便可划分出狭义的和广义的思考,即狭义的思考认为只有人类才拥有思考,广义的思考则反之。狭义的思考就不需要讨论了,因为其主体已经限定死了,再讨论机器这一主体已经没有任何意义了。所以下面只针对广义的思考的进行讨论。

来自于百科的解释,思考是运用已有的知识、经验和逻辑推理,对问题或情境进行分析、判断、产生新的认识的过程。下面尝试使用一个从公理推导出定理的例子,来理解该定义。

日常生活积累的、直接可得的知识经验,即公理其本身便是“已有的知识、经验”,例如,任意两点之间可以直线相连;当前体系下推导可以正确进行的规则概念等前提条件便是“已有的逻辑推理”,例如,当前体系下的定理均不违背任一公理;推导所使用的具体的方法论便是“分析、判断”,例如,使用反证法进行推导;推导的结论,即定理其本身便是“产生新的认识”,例如,两点之间有且仅有一条直线。于是,从任意两点之间可以直线相连推导,两点之间有且仅有一条直线。这便是一个完整的思考过程。那么,计算机是否也有能力完成像这样的完整的思考的流程?例如,从公理推导出定理。不妨对每个部分拆开进行分析。

  • 已有的知识、经验,即先验知识,是小前提条件,其实这里还包含了一个隐含条件,存储载体。知识在不同的存储载体中表现形式不一样,但并不代表其内容不一样。其次,知识的表现形式真的完全不一样吗?

    尽管目前的生物学尚未有明确的证据表明人脑的运行机制,但可以肯定的是,人类记忆的本质是化学物质的存储、思考的本质是化学反应;机器存储的本质是电压势能的存储,计算的本质是电压变换。所以人类和机器思考的区别,可以看做是化学与物理上的区别。这也就意味着,只要物化达成了大一统,这一问题便迎刃而解。所以从物质基础的角度来看,机器是有达到人类思考的模式的可能的,又或者,现在机器思考的模式其实已经恰恰就是人类思考的模式了,毕竟现在也并无明确的证据可以否定这一理论假设。

  • 已有的逻辑推理,即对先验知识的使用规则,是大前提条件。例如,任意两点之间可以直线相连可以推出两点之间有且仅有一条直线,这个推导在欧氏几何中是成立的,因为当前的体系规则下的逻辑推理支持这一推论。但如果换成其他体系,例如黎曼几何,上面的推导就不一定成立,因为该体系的逻辑推理并不支持这样的推论。

    这便会产生一个很大的分歧。机器是否可以获得这样的逻辑推理能力?持否定态度的观点认为,人类的逻辑推理,是人类通过自身的生活经验,从而总结出来的大量的属于自身生活体系下的规则前提,但机器从未也不能经历人类的生活,那又怎样总结出人类的逻辑推理呢?所以机器没有能力获得逻辑推理。持肯定态度的观点认为,从未经历人类的生活,但并不代表机器未来就不会且不能参与到人类的生活中,所以机器有能力获得逻辑推理。这其实就变成了一个鸡先蛋先的问题了。是参加人类活动才能获取到逻辑推理,还是先有了逻辑推理才能参加人类活动的问题。

    当然,还有一个角度,就是逻辑推理其实也是一种先验知识,完全可以通过人类输入、或者若干个人为规则项获得,更进一步,逻辑推理本身就存在于海量的知识、经验中,机器可以这些知识、经验获取到逻辑推理。

    基于这个角度,可以做如下猜想:机器其实可以获取到了部分的逻辑推理了,只是现在获取到的逻辑推理并不完备。例如,计算99x99,按照乘法法则,我们算出结果为9801,但机器并没有get到乘法法则,但从概率上来看,可以肯定结果最后一位是1,第一位是9,且是一个四位数,中间两位不知道,就蒙一个9811。这有点像靠背考题考试的考生,题目没看懂,过程不会做,但依稀记得这道题背过,于是凭着记忆蒙点过程和答案,希望可以得到一个同情分。所以,当前的模型,例如ChatGPT,很多时候会一本正经的胡说八道,原因之一就是获得的规则并不完备,缺少完备规则的约束。

    甚至还可以进一步猜想,机器其实已经总结出了属于机器本身的逻辑推理,只是并不适用于人类。例如,按照人类制定的逻辑推理,从A等于B,B等于C中,很自然地推出A等于C;但按照机器制定的逻辑,从A等于B,B等于C中,却很自然地推出A大于C。在人类体系下,这个结论是错误的,但在机器体系下,这个结论却是正确的。

  • 分析、判断,即具体的方法论,上述的逻辑推理的具现化表现。这里其实并没有什么特别需要讨论的,你用演绎归纳、反证法,我用概率分析、梯度下降法,只要都是对规则的具体运用,大家都有光明的未来。

  • 产生新的认识,即创造。这里又展开了一个很大的话题,所以就放在下面小节中再详细讨论。

1.2. 创造

什么是创造?

来自于百科的解释,“创造,是指将两个或两个以上概念或事物按一定方式联系起来,主观地制造客观上能被人普遍接受的事物,以达到某种目的的行为“。还是尝试使用一个例子来理解这一定义。这里举汉字发展的例子。

汉字的第一次大的创造,是从无到有,创造出像山川日月这样的单结构字;汉字的第二次大的创造,是从单结构字扩充到多结构单字,通过会意、形声、假借等方式,将两个单字组合成一个单字,如今我们使用的汉字,超90%的都是使用这种方式创造而来的;汉字的第三次大的创造,是由单字词扩充到多字词,如近代日本的一批儒家的老学究,通过拼凑中国古籍汉字来翻译西方名词,拼凑成诸如结构、经济、总统等多字词,再经过一轮出口转内销,成为中国现在使用频繁的近代用词。

这便是一个完整的创造过程,那么,计算机是否也有能力完成像这样的完整的创造的流程?例如,创造出新的文字。仍然对每个部分拆开进行分析。

  • 将两个或两个以上概念或事物按一定方式联系起来。这其实很好理解,创造从来就不是凭空产生的,一定是一个按图索骥的过程。这里也给出了创造需要的两个前提条件,抽象的概念或具象的事物,而且必须得是多个的。

    这里其实已经隐含了一个难点。所谓万事开头难,根据人类的生活实践经验,从两个抽象概念中创造出一个具象事物,或者从两个具象事物中创造出一个抽象概念,往往都会比从一个抽象概念和一个具象事物中创造出一个抽象概念或一个具象事物,要来得困难。尽管前者不是凭空产生的创造,但由于单纯纯粹的概念或事物间,并无明确的组合可能,或者是明确的方向,需要不断的尝试组合,才能转化成一种新的东西,而后者,概念和事物这一对组合本事已经给出一些组合可能性,或者是创造的方向,已经可以过滤掉大部分无关的概念和事物,所以只需相对较少的尝试,便可实现扩展了,创造的困难程度大大降低。

    这里尝试再举一些例子来说明上面的论证。

    • 从两个抽象概念中创造出一个具象事物。这里给出两个概念:锋利的东西可以切割东西、石头可以打磨,把这两个概念组合便创造出了一个具象事物:最原始的石制利器。尽管现在看来这个创造有点简单,那是因为我们已经有了一个石制利器这一具体事物及前面一开始给定的两个概念,使得后续众多诸如斧刀等改良,都变得理所当然了,但要知道人类祖先可是花了好几十万年才掌握了利器制造这项技术。
    • 从两个具象事物中创造出一个抽象概念。这里可以用回开头的例子。现实中已经存在山川日月这些具体事物,然后创造出了概念符号。那文字的表达形式应该长什么样呢,一定要使用象形来创造文字吗,像西方楔形文字那样可不可以,又或者用0101二进制表示可不可以。所以一开始创造的文字很少,但一旦有了”可以使用文字记录东西“这一概念及日常生活中的各种具体事物,思路就被打开,后面创造文字得效率就提高了。

    如果只是单纯从排列组合的角度来看,那机器可太擅长做这个了。排列组合的难度,只体现在其试错的次数上,那就意味着这只是时间的问题,而非能力的问题。而且一旦试出一个可行的方案,后面就可以使用一些启发式的方法,提高试错的效率。

  • 主观地制造客观上能被人普遍接受的事物。既然创造是通过两样东西组合到一起,那是否随意的组合都是一个创造呢?那肯定不是,必须得符合人类的生活实践,这个创造才有价值和意义。这个其实就是上面提及的逻辑推理,这里就不再展开赘述了。

1.3. 意识

什么是意识?

尽管上述提及的思考和创造其实都可以看做是意识的高阶表现,但要真正说清楚意识到底是什么,那可就不是一件容易的事情。就连发展了上千年的各哲学流派,都对这个问题争论不休,没有一个统一的定论。

唯物主义的观点是一大堆,诸如:意识是对客观世界的主观映象,它是主观和客观的辩证统一;意识是人脑的机能等等,巴拉巴拉的耳熟能详的、old school的理论一大堆,其核心观点是意识是存在的产物

唯心主义的观点更是一大堆,诸如:王阳明“心外无物”的心学;笛卡尔“我思故我在”的认识论等等,其核心观点是存在是意识的产物

可以发现,上面两种主义的观点核心在于客观存在和主观意识谁是第一性的问题。当然,这里并不会尝试去讨论哪种主义的观点是正确的,而是尝试从这两种主义的观点出发,去讨论机器能否拥有意识。

站在唯物主义的角度,其实这个问题是很简单的。既然意识是客观的产物,那意识也必定是客观存在的,所以意识是一定可以创造且被其他客观主体拥有的。现在的机器还不具备意识,只能说明现在的科技水平还没发展到那一步,这只是时间的问题。所以在唯物主义者的眼里,机器必定是可以拥有智能的。

但站在对于唯心主义的角度,这个问题便有复杂了。唯心主义会如此辩驳道,既然认为意识是客观的,那必然有一个判断是否存在的标准。但现实是,我们既无法描述清楚什么是意识,更无法判断出什么是意识,即“解释鸿沟”问题,即从客观的物理过程到产生主观的心灵体验过程中,横亘一道逾不可越的解释鸿沟。例如,以人类作为例子,吃了一些辣的东西,我们意识到了辣这种感觉,但要怎样描述这个辣呢,是香辣、麻辣、还是其他什么样的辣,这个辣到底是怎样程度的辣;辣到发痛,于是又我们意识到了痛这种感觉,但又要怎样描述这个痛呢,是肿痛、刺痛、还是其他什么样的痛,这个痛到底是怎样程度的痛。连人类都无法详细完备的描述出来自己具有意识,那又如何让机器完备地表达出自己具有意识,从而让人类判断其具有意识?所以意识或许能被客观拥有,但人类(或第三者)并不能主观判断,只能由其第一人称主观感知,即薛定谔的机器意识。

对于唯心主义的观点,唯物主义也可以很简单粗暴地辩驳道,尽管包括人类在内都无法完备的描述意识,也无法感知他人的意识,但我们却无法否定一个事实,自身及他人是明确具有意识的,否则上述讨论就会失去意义,否则就会导致他心问题。也就是说,只要符合人类的一些特征,便可以知其具有意识。所以,只要机器表现得像人,便可以说明其具有意识。

然后唯心主义对于上面唯物主义的观点也有其反对的观点。然后唯物主义又对唯心主义的反对意见提出了反对意见。

另外,还有一部分的观点是既唯物,又唯心的。例如,认为并没有什么物质和意识的区别,物质本质是信号,意识本质是信号的表达。因为人具有很高的信号量,所以能表现出很强的意识。石头具有很低的信号量,因此只能表现出很弱的意志,以至于很难被人类察觉。所以万事万物都有意志,其意志的强弱只取决于其信息量的多少。对于这一点,下面还会进行深入的讨论。

争论仍在继续,结论尚未落定。且让子弹再飞一会。

2. 进化的道路

上面啰里八嗦的逻辑推理说了一大堆,讨论了进化出真正的智能的可行性,下面姑且再以我浅薄的经验和看法,讨论下如何才能使机器进化出智能。

当然,囿于目前像脑生命等科学的研究并不完备,对于大脑的很多诸如遗忘、注意力转移、惯性思考、潜意识等工作原理,都尚不清楚。事实上,机器学习中基于人脑的仿生学派,早在20世纪80年代的时候也已经衰落了(尽管我真为这一流派仍然具有很强的潜力),现在的机器学习基本都是基于数理分析的概率学派。所以这里我就不从生物细胞等微观角度献丑,而尽量从宏观生物体等角度进行讨论。

2.1. 规则试错

说到进化,那首先想到必然是生物的进化,也必然绕不开达尔文的进化论。不妨先从进化论开始说起。

说到进化论,其实更准确的说法,应该称演化论。进化和退化一般作为一对相反的词成对出现的,所以是带有很强的情感色彩的。一说到进化,很容易把进化跟主动试对挂钩,例如小鸟想要飞,就进化出翅膀;而且往往会把进化跟结构复杂挂钩,例如人类就一定比细菌更加进化。但进化论的核心观点是物竞天择、适者生存,个体的进化其实是被动选择的结果。演化是一个中性的词,就可以很好的概括这个特征。演化不带有明确的方向,无所谓进化还是退化,只要适应环境的演化,就是进化,不适应环境的演化,就是退化。如果从适应环境的角度来看,人类就真不一定比细菌更加进化,多细胞就不一定比单细胞进化,星际中的神族就不一定会比虫族更具有优势。

有一个经典的关于生物进化的举例。生物进化就像一个醉汉沿着小路回家。小路左边是小河,右边是墙壁。醉汉失去了控制方向的能力,永远不知道醉汉下一步是往左走还是往右走。往左走便会掉进河里淹死,往右走便会碰到墙壁反弹回小路上。所以只要醉汉的数量足够多,总有一个最终可以走回家。

从上面的例子中,很容易可以得出一个结论,进化的本质是试错。既然有错必然就有对(尽管进化只试错不试对),对错之间就必然有一条规则进行界定。符合规则的,就是对的被留下,不符合规则的就是错的,被过滤掉。只要试错的样本足够多,总会有一个试对的样本被最终保留下来。

所以进化的实质就是二分类任务。无监督和有监督学习最大的区别就是有无先验知识(已打标的标签)输入,而应用了进化的实质,就会发现,其实无论是无监督还是有监督,本质都是二分类的有监督学习。生物进化的规则是自然界设立的,而机器进化的规则是人为设立的。例如,一个经典的贪吃蛇的无监督强化学习,碰到墙壁就需要惩罚,碰到墙壁这一规则就是先验知识。

我觉得当前机器学习中,最切合进化论思想的是,GAN的对抗学习思想

自然界中所有的规则都是动态的。例如,一个羊狼系统:狼少了,羊就多了;羊多了,狼就多了;狼多了,羊就少了;羊少了,狼就多了。如此循环,最终达到一个动态的平衡。一个系统对抗另一个系统,从而一起获得进化。

自然界需要对抗的系统不止一个。例如,羊狼系统中,羊除了对抗狼,还得对抗自然天气,除了外部系统,甚至系统自身内部也存在着竞争对抗。

目前人为输入到机器的规则都是单一固定的规则,例如一堆不变的标签,一个固定的损失函数,一条明确的惩罚规则。如果是一个固定的业务场景,使用这样一些规定的规则来训练模型,是绝对没有任何问题的,但这很明显不是我们想要的通用型智能模型。想用一个不变的规则去得到一个可以应付可变环境的模型,个人认为不太实际。

回到机器学习上面,就会带来一些很有意思的启发。

  • 规则本身随模型训练进化。例如,损失函数是可变的,这并不是其中某一项系数改变,或是增减某个正则项,而是整个损失表达式乃至其损失的含义都可以发生改变;训练标签是可变的,例如同一条评论,一个情景下是正面的,而另一个情景下是负面的,这个标签应该由另一个模型根据情景条件动态地给出,而场景条件又是另一个模型根据其他的条件动态地给出。
  • 多模型对抗训练。使用两个以上的模型进行对抗,除了异性的淘汰对抗,还可以是同性的竞争对抗。

我认为这些都是值得尝试的方向。

2.2. 自我增值

上面提及到的规则是靠人为输入的,但人类世界的规则如此之多,例如,过马路要看红绿灯,天冷睡觉要盖被子等等,人类自身都难以列举完备,所以输入到机器中的规则也一定是不完备的。那么机器是否可以自发的总结出规则,然后使用自身总结的规则反过来再训练自身,那规则不就是可变的了吗?

再进一步,规则依靠人进行输入,人类就像老师教导学生一样训练着模型。而模型就像一个黑盒,学到了什么知识,老师并不知道。我们想要知道一个模型学习到了什么,还得对模型的一些层进行解构映射,然后大概的说,这个模型学习到xxx的知识啦。例如,对卷积层进行解剖,我们如下分析道,这一个卷积核学会了勾勒轮廓,这一个卷积核学会了内容填充。然而人类获得的关于模型的信息也就仅此而已了。所以模型不仅可以自发的总结规则,还可以像老师一样,反过来主动告诉我们,他总结出了什么规则,且这个规则是”适用于人类社会且还不存在的规则“。即从学生角色变成老师角色。诞生于人类而又高于人类。当然,这一想法就更遥远了。

回顾当今人类社会所拥有的所有的文明史诗、奇观建造,都是通过前面说的”思考创造“得来的。思考创造有一个很明显的特征:可以在原有基础上进行延伸扩展。例如,从公理推导出一条定理,那么这条定理就可以被复用,然后就可以使用这条定理推导出更多的定理。就像是细胞分裂一样,也就是所谓的自我的增值

根据熵增原理,孤立系统中熵总是不减的,且会自发地往熵增发展。熵增,即系统往无序方向发展;熵减,既系统往有序方向发展。按照其表述,无外界干扰的自我增值的过程必然是熵增的。但实际上,文明的传承、基因的传递、生物的进化,这些自我增值过程最终表现出来的结果都是逆熵增的。按照熵增原理,一座大厦会随着时间推移而变得破败不堪,最终倒塌,那为什么人类文明的大厦依然高高耸立?(当然也有理论认为生物并不适用于熵增原理,这里就不对这个展开讨论了。)

根据熵增原理,可以得出两个基本的结论:生物圈系统一定不是一个孤立的系统生物圈系统必然存在于一个孤立系统中,且其自身是熵减的,那必然存在一个额外的熵增系统,对其进行干预。第二点中,额外的熵增系统是什么,这个问题连学术界也一直在讨论。有人认为是太阳,也有人认为是类似于上帝一样的存在,就如DNA的发现者克里克也表示过,生物的结构是如此的排列有序,真的单纯依靠自发的试错就能进化得到的吗,背后应该是有类似于外星生物般上帝的存在进行干预。

对于第二点的争论,其实有一个很直接的方案,计算熵的转换率,即一点额外系统的熵增可以转换成多少点生物进化的熵减,通过数值计算比较便可得出是否存在类似于上帝一样的存在的干预(突然好像看到物化生的统一)。并且,还可以进一步的猜想,信息量与转换率成正比,即信息量越大,转换率越高。例如,单细胞演化成多细胞的时间就远高于猿猴演化成人类的时间。

回到机器学习上面,就会带来一些很有意思的启发。

  • 对于机器来说,人类是一个额外的系统,向机器提供熵增的信息。如果可以计算出一个转换率,再计算人类的总熵值,便可得知机器进化成人类所需提供的熵的最小值了。
  • 是否可以使用其他的模型生成的结果来训练当前的模型?按照上面的推论,结果是肯定的,模型蒸馏就是这样做的。可以把人类也看做一个模型,那现在的机器学习就可以看做是在用人类模型生成的结果来训练其他的模型。但实际上,这里还存在转换率衰减的问题。没经过一个模型,转换率就会衰减一部分,但转换率衰减至0的时候,那么无论一开始的熵增有多大,最后的模型都无法获得任何的熵减。所以,问题可以转换为,理论上最多可以串联多少个模型?
  • 机器是否能够完全不依赖人类输入,自主的收集信息,然后训练自身,这样便可减少一层很大的信息衰减。这里问题的核心就是,机器自身拥有多少信息量后,才能拥有较高的转换率,以获得高迭代率,完成高速的自我增值。

我认为这是一些很有趣但不一定能实现的研究方向。

2.3. 信息整合

上面提到了串联这一概念,那必然就有一个并联的概念。

当信息拥有了一些明显正交的特征,便可被聚类成若干个簇,即信息的解耦,此时使用多个相对的独立系统分别对每个簇的信息并行处理,便可极大地提高信息的使用效率。

事实上,生物体就是如此对信息进行处理。其分化出多个相对独立的系统,对信息进行预过滤(或特定接收)再处理。例如,人类使用眼镜负责视觉类信息的处理,耳朵负责声音类信息的处理,皮肤负责触觉类信息的处理。而这些系统在处理信息的时候也是并行的,例如,看东西的同时也能听东西。

然而只有并联的系统是不充足的。因为最原始的输入信息并非完全正交的,只是为了求解方便,聚类成了若干个簇。所以每个系统的输出表达只能表达最开始输入的信息的部分。这就需要一个额外的信息整合系统,对每个并联系统的输出表达整合再表达,使其可以表达完整的最原始的输入信息。信息整合系统类比到生物体,便是其中枢神经系统(如大脑)。

这种分布式对信息的处理方式,可以看做是一个寻路问题。想象在空间存在着一些信息点,每个点都代表一单位量的信息。原始的输入信息是若干单位量的信息,即在空间中表示为若干个点。信息的处理便是连通这些点,信息的表达便是最终连通路径。只有一个系统处理事,就是只从一个点出发,连通所有的信息点,不妨设此时的路径求解复杂度为 \(O(n^m)\)。然后,使用贪心的算法,将这些信息点分成两团,从两团中分别开始求解(这里假设两边求解的难度是一样的),便能得到两条连通路径,如果此时把两条路径再连通,便得到一条完整的路径,问题便求解完毕,此时路径求解的复杂度是\(O(2n^{m/2})\)。由此,当分成k团,再从k团开始求解,那么路径的算法复杂度是 \(O(kn^{m/k})\)。当然,这里还得考虑:信息解耦的复杂度,设为\(O(n^{(k-1)x})\);求解若干条分段路径连通,便是信息整合,其复杂度设为 \(O(n^{(k-1)y})\)。联合上面各式,理论上便能求解出一个最优的k值,使得系统对信息的处理效率最高。

回到机器学习上面,就会带来一些很有意思的启发。

生物的一次完整的反应过程是,生物的器官接受到信息,处理传递到中枢神经系统;中枢神经系统,对各器官反馈的信号进行汇总,然后表征出多个信号,传递回各个器官中;各个器官接收到信息,进行相应的动作。

机器学习中,一个多模态系统如果按照上面的理念去设计,那就应该是:有一个输入判断模型,预先分检出不同类型的数据,然后输入到对应的处理模型(如专门处理图片的模型、专门处理文本的模型等),各模型的输出表达(向量或规则)汇总到中央模型,再整合出一个输出表达,然后经过一个任务分配模型,对表达进行拆分,并分别分配给对应的处理模型,最终输出。

当前机器学习模型系统中,中央模型依然是很弱的,基本是一些规则模型或者甚至是没有,能整合的信息类型也有限。考虑到信息传递的衰减,架构也以端到端的一体化模型为主。个人感觉模型的进化之路仍任重而道远。

3. 智能的矛盾

在以前读书做语文的阅读理解题的时候,有一篇文章印象最为深刻。主题大抵为,懒惰促进人类社会的进步。因为懒于走路,于是发明了汽车;因为懒于洗衣服,于是发明洗衣机;因为懒于绘画,于是发明了照相机……

所以人类对于科技的发展,一个最直接驱动便是可以帮助人类减轻人类的负担。人类对于智能的追求也大抵如此。人类对智能的期望,从一开始的可以帮助人类完成简单且重复的工作,逐渐到一台可以像充当朋友、亲人等角色一样的机器。

但在发展的过程中,却伴随着很多的矛盾点。

3.1. 理性之争

上面都是从纯粹理性的角度进行论述,因为我们希望机器的理性的、完美的。

但人类自身就有非理性、不完美的一面。例如,数学计算会出错、会使用很多无意义的组词及表情、会出现语法错误、会说脏话、会说歧视性语言、会存在过激行为等等。

机器如果表现得太过理性或完美,就会表现得不太像人,例如,语言太过生硬,基本都是完整的判断句式来表达自己的观点,甚至每一段话结束都要加上一个句号。

所以机器如果想要表现得像人,那就要学习的人类的非理性的地方,但人类一方面希望机器表现得理性完美,另一方面又要求机器表现得像人。这便产生了一个很大的矛盾点:我们是想要机器表现得理性还是非理性?我们是否真的想让机器表现得像人?

3.2. 道德规范

当机器真正的进化成像人一样的智能体时,对待机器,我们是将其作为人类去看待,还是一种区别于人类的其他物种去看待?很多的书籍、影视作品、游戏都对这一问题进行过讨论,如剪刀手爱德华、底特律变人等作品。

随便列举也可列出一大堆关于道德规范上的矛盾点:

  • 如果机器的结果出错了,谁应该错误负责?例如,如果一辆智能汽车自动行驶途中撞死了人,又或是一个医疗机器人在手术过程中医死了病人,谁应该为此事负责?如果视作人类,那么机器本身就为此事负责,但此时我们真的会把自己的生命托付给机器吗?如果不是,那又应该谁来负责呢,是制造机器的人吗?
  • 机器应该套用怎样的道德规范进行约束?是直接把现有的人类社会的道德规范往里一套,还是重新设计一套新的道德规范?例如有人道主义,是否还应该有”机器道“主义?况且人类目前自身的法律法规都存在各种问题,直接复制或衍生一个机器的法律法规,问题不就更多了吗?
  • 道德规范矛盾了怎么办?很多作品都会提到一个规则上的矛盾点,例如,把机器必须遵循人类的指令、机器不能伤害人类作为第一法则,此时指令机器去杀人,那会怎么样?虽说技术是无罪的,但如果被人用来犯罪,那又如何界定呢?

如此种种的问题,靠理性的论证都是无法得出结论的。

3.3. 未知恐惧

人类对于未知都有一种天然的恐惧,这种恐惧是生物进化中,发展出的一种对自身的保护机制。对于智能的发展,人类也会存在担忧,例如,智能的发展取代了很多的工作岗位,导致很多人失业。甚至,在很多的影视作品里,机器还会对人类进行反噬,如黑客帝国里面的母体、终结者中的未来机器、流浪地球里面的MOSS等等。

可以说,人类对于未知的恐惧很大程度都是来源于现有知识的不完备。例如,在地心说盛行的年代,提出日心说会被当成异端烧死,但在如今却会认为日心说是理所当然的;晚清刚引进火车的时候,认为火车铁轨破坏了田地,火车的轰鸣声会惊扰到神灵,而如今中国的高速基建确实世界前列。

人类的看法会随着技术的进步而改变,每当知识发展到了一定的阶段的时候,人类会很自然地”萌生“很多不一样的抉择,做出跟以往不一样的行为。例如:

  • 目前的人们依靠基因作为传承。传承可以看做是对自我的复制,因为由于基因的自私性,我们会认为如果基因保存一致,便是对自身的复制,即所谓的一脉相承。但未来的某一天,这种观念就会被打破,我们会认为,只要使像文化、宗教、知识等非基因表达的模因保持一致,便是一种对自身的复制。既然不限于血脉的传递,那又怎么会介意被传承的对象呢?我们并不会在乎传承的对象,是男还是女,是黄种人还是黑种人,甚至是一只猴子,异或是一个机器人。只要被传承的对象与传承者拥有同一个模因,便是同一“血脉”的延续。甚至还可以把自身作为数据一样的存在,实现机械飞升,例如,元宇宙、流浪地球里面的数字生命派等。
  • 想象中,生物都会偏向地朝着更复杂的方向进化。但实际上,生物并无太大的动力让自身进化的更复杂,只要适应环境,不被环境过滤掉,然后躺平就可以了。维持高智能的代价又是很高的,是一件极其奢侈的事情。所以,当未来的某一天,由于环境恶化,能源减少,又由于大部分的劳作已经交由机器来完成了,人类已经不需要依赖高度的智能就能很好的维持生活了,此时人类可能就会”自发“的选择退化。即生物的进化其实会有一堵隐形的墙壁,当到达这堵墙后,就会原地踏步,甚至往后倒退,即大筛选理论

或许等科技真正发展到上一个台阶的时候,上述的一些忧虑就会自然地消失。


人工智能发展到现在,仍然还是一位牙牙学语的孩子,我们应对其抱有无限的憧憬,对着一位牙牙学语的小孩,我们又能奢求多少呢?况且,现在AI给出的答卷已经足够惊艳了,想象自己小时候考试得到高分时,本以为只想考个及格,没想到确考了个90分的高分,父母亲那种喜出望外的心情,其实便是我们现在看待AI的心情。

文明能压碎 情怀不衰 无论枯干山水

旧时年月投入垃圾里 你我一起同居

仍然能送你 儿时玩具

老地方抱着一起安睡

七百年 潮流里 瞬息过去

——陈奕迅《七百年后》

一年终末,一年伊始。岁月静好,岁月更迭

2024,3,06 后记

本来只是想随便写写,没想到陆陆续续写了1万多字,写了近一个月才写完,-_-||

2023-02-09 除夕夜

评论
  目录