帽子

【解读】胡泳:在AI时代生存和成长

发布人:a8直播软件   发布时间:2024-08-26 01:30:46
产品展示

  对人工智能的思考本质上是要讨论人类的信仰到底是什么。人类信仰的问题以往是哲学家们的专利、是神学家们的专利,但是今天的人工智能把这样的一个问题推到所有人面前,那么所有人,尤其是AI领域的从业者都需要仔细考虑这样的一个问题,秉持着什么样的信仰会决定人工智能将来会达到什么程度,会怎么样被应用。

  本文作者系盘古智库学术委员、北京大学新闻与传播学院教授胡泳,文章来源于“图灵人工智能”微信公众号。

  人工智能革命被称作第四次工业革命。第一次工业革命是蒸汽机革命,第二次工业革命是电力革命,接下来是以电脑、互联网为主的第三次工业革命,它是一场信息化革命。然后我们终于来到第四次工业革命。

  第四次工业革命是什么?简单概括一下,它与前面不同的地方在于技术融合。融合是一个关键词,模糊物理、数字、生物领域之间的界限,出现了网络-物理系统。我们讲的数字孪生,事物在现实世界有一个,在数字世界一定有另一个。此外,新兴技术在许多领域取得突破,包括机器人、人工智能、纳米技术、量子计算、生物技术、物联网、工业物联网、5G通讯技术、增材制造/3D打印和无人驾驶汽车等。

  这些技术几乎颠覆了每个国家的每个行业。这些变化的广度和深度预示着整个生产、管理和治理系统的转变。概括起来,我们把它们叫做第四次工业革命。

  但这只是一个分法,其实人类发明各种各样的说法,对我们所面对的现象进行不同的划分。我再来引入另一个划分,就是有关机器和人的关系问题。

  麻省理工学院的两位研究者写了一本书叫《第二次机器革命》,它给了我们另一种分法。所谓的第二次机器革命一定是对应着在前面有第一次机器革命,这两个作者之前写的书叫做《与机器赛跑》,从书名来看,当时人还有一种主体性,还有一种动力说让我们和机器赛跑,说不定我们就打败它了。那个时代,我们大家都认为也许可以造出一个击败国际象棋冠军的机器人,但是不可能有一个程序能击败围棋,因为围棋比国际象棋复杂太多了,所以我们觉得还可以赛跑。今天我们说“与机器赛跑”肯定过时了,已经没办法跟机器赛跑了。

  两位作者的新书叫做《第二次机器革命》。第一次机器革命讨论的人与机器的关系是,那个时代虽然开启了机器革命,但机器其实就是由人类控制的,劳动力也因此显得“更有价值、更重要”。人类和机器是互补的关系。有的事我们干得更好,有的事机器干得更好,双方可以互补。到第二次机器革命的时候,这个关系可能不是互补关系,而是替代关系。

  怎么突然之间形势就变得如此急转直下?我们讨论一下逻辑问题。这两位作者觉得基本逻辑就三个。

  第一个叫指数级增长。很多例子证明,今天的东西是指数级增长的,导致想象力的极限问题,导致一个敏感的初始值问题。

  第二个叫数字化进步。我们这么多年来通过数字化把大量的信息积攒起来,到底有没有产生智慧?若能够把这个智慧挖掘出来会怎么样?作者之一把一些谷歌检索的关键词做成一个模型,用这个模型预测三个月之内美国某个地方房价的增长,发现预测的结果相当精准。将数字化信息转换成智慧,他们把这叫做数字化的进步。

  第三个叫做组合式创新。有一句谚语说,摘取路边低垂的果子。为什么低的果子都被摘了,因为人走过去随手就摘了,高处的摘不到,只有爬梯子。有人问是不是创新有一天就终止了?但创新并不是摘果子,而是搭积木,每出现的一个新创新所能带来的创新组合是无限增长的。多增加一个创新并不是摘掉了一个果子,而是增加了未来重组式创新的无限机会。因此创新永远都不可能停止。

  这三点就是他们所谓的第二次机器革命的逻辑,正是因为这样的逻辑,我们突然间不能够简单地跟机器赛跑了。

  在这种情况下,大家非常在意的就是工作的未来。将来可能没工作,所有人都进入“无薪时代”,真正有工作的人都是贵族,然后由贵族养活大量的没有工作的普通平民。这个观点的突出代表是历史学家尤瓦尔·赫拉利,在前几年一本极为流行的书中这么写,把大家吓出一身冷汗。

  在2018年10月举办的“2018信睿论坛”上,赫拉利提出技术用温水煮青蛙的方式,让人放弃了自我选择。而21世纪人工智能的革命将会创造无用阶级,不用工作、没法工作,对经济、政治系统来说毫无用处

  赫拉利认为,未来的AI会导致无用的人类,21世纪最重要的不是反抗剥削而是反抗无用。无用的问题可能比剥削严重很多倍,工作在很多时候是每一个人的尊严所在,是他的价值所在。如果他没有工作,这个人怎样还是一个人?这要划一个很大的问号。我们不能想象一个世界的人都不工作了,尽管你每天都在想象如果不工作会多好,但是如果你不工作一天,会非常不自在,因为我们已被工作所定义了。

  当谈到这样的一个东西的时候,有人不干了,代表性的人物就是李开复。李开复就出来说了,赫拉利耸人听闻,赫拉利虽然是一个历史学者,但是他不懂技术。李开复说必须停止煽动人类对于AI的恐慌,而且无用阶级这个说法本身是对人的巨大打击,不可以随便说人是无用的。因为有些事情是AI不能干的,是人能干的。

  在这个问题上,人类的精英是分裂的。有精英说AI有非常大的问题,比如霍金。霍金说AI有可能会毁灭整个人类文明。霍金去世前特别关心的是剑桥大学的未来研究中心,他说研究人类历史发现的真相只有一个,那就是人类的历史就是一部愚蠢的历史,我们能不能反过来想一下人类在何时能够不愚蠢?所以人们转而研究智能的未来是令人欣喜的变化。剑桥大学的未来研究中心有一个格外的简单的使命,就是研究AI在未来会不会毁灭人类。霍金在中心开幕的时候讲了一段话,他说人工智能的发展可能帮助人类消灭疾病、消灭贫困、阻止气候平均状态随时间的变化,但也可能会产生人们不愿意看到的种种后果,包括产生自主武器、造成经济灾难,以及发展出与人类发生冲突时有自己意愿的机器。

  欧洲正在开展一些立法工作,围绕AI和机器人技术建立新规则。欧洲议会的议员会追问机器人会不会有电子人格,这是一个很严肃的问题。若机器人有电子人格,我们造机器的时候肯定要附加一个最后的开关,就是必须要有一个开关能够让机器人停止做某种事情。在克拉克的著名科幻小说《2001太空漫游》中,人工智能电脑哈尔因为不能控制那个开关,把人类毁灭了。讨论到这里我们得知,如果机器有自己的人格,甚至企图对创造它的人造成了严重的伤害,我们该怎么去办?这是霍金担忧的问题。

  3月,欧盟有关方面与微软、IBM两家公司共同签署了《人工智能伦理罗马宣言》,该宣言指出人工智能技术应当尊重个人隐私,以可靠而无偏见的方式工作,并且考虑到所有人的需求。IBM执行副总裁认为这一举措表达了对AI及其社会影响的长期担忧

  刚才说到精英群体观点的分裂,还有别的的代表人物,比如埃隆·马斯克。马斯克一边在研究AI,一边在谈AI的危险。他说人工智能的危险大于核武器的危险,为什么这么说呢?因为AI的能力远超出我们的想像,而且在以指数增长的速度进化。这里可以回应李开复的说法:“我们是人工智能专家,我们懂。”马斯克质问,你真的懂吗?还有比尔·盖茨,他说我不理解为什么有些人对于人工智能的未来毫不担忧。那些所谓的AI专家,他们自以为知道的其实远比他们实际知道的多,他们以为的自己要比真实的自己聪明得多。我们每个人其实都是这样,人工智能的专家也毫不例外。

  以上是精英的一个阵营,另外一个阵营几乎也同样强大,比如扎克伯格。在人们讨论人工智能会造成人类末世场景的时候,扎克伯格说这种讨论是毫不负责的。AI领域最杰出的华人之一吴恩达说:“今天担心这些事情,好比担心火星上的人口过剩。”我很喜欢的一个人工智能专家佩德罗·多明戈斯,在推特上引用了马斯克的话“AI是人类文明存在的根本风险”之后,评论道:“一句话:叹气。”他认为马斯克说得完全不对。

  他们是人类最聪明的一群大脑,如果他们在这样的一个问题上陷入如此分裂的场景,我们作为普通人何以自处?这样的一个问题似乎看上去是无解的,包括刚才讲的人工智能到底会毁灭工作还是创造工作。比如段永朝老师讲到厨师可以做培训机器人的工作,可是工作是有一个量的问题,假如没有大量的工作,有多少人会从厨师转变为训练机器人的厨师呢?

  有关AI的争论一定是不会休止的,我们普通人该怎么样自处,这是一个很严肃的问题。

  事实上不光是人类的未来,或者说工作的未来,也包括机器会不会有意识等等。当我们对这些产生惶恐,问题不能得到解答的时候,其实有一个出路,这个出路就是要意识到,这些专家之所以对未来的前景产生不同意见,不是因为他们了解什么,而是因为他们的底层信仰不一样。

  为什么我强调这个观点很重要,我最后主题会落到这里。比如那些预测我们肯定会造出有意识的机器人的专家,是因为他相信一个非常基本的假设——人类在本质上是机器。如果人类是机器,我们当然最终可以建立一个有意识的机器人。而那些认为机器永远都不可能产生意识的人,也不是因为他是意识专家,而是因为他相信人不可能是纯粹的机械生物。

  说到这里大家可能会很疑惑,这不是意识问题,而是信仰问题。一旦谈到信仰问题,讨论人工智能一定要解构一些最基本的东西,不能单单讨论人工智能,而是要回到历史上、回到技术整个的发展历史上去解构一些最基本的东西。

  试图从技术史上提炼,其实最终一定会回到这里,最终要解构的东西就是三个基本问题。

  第一个问题,宇宙的构成是什么。这是从古希腊以来就争论不休的一个问题。第二个问题,人类是什么。第三个问题,不是一个集体概念,是一个个体概念,就是自我的问题,我是什么。

  为什么这三个问题在今天变得如此重要,为什么我说这更多是一个哲学的思考?其实你会发现有关这三个问题的回答都不是单一答案,全部都是多重选择题。

  举一个简单的例子,比如宇宙的构成,一直有两种思想流派,一种认为宇宙的构成无他,就是原子,单一的物质。从德谟克利特开始就认为,你作为一个人在这里思考,没什么高级的,就是原子在运动,这叫一元论。另外一派人坚决不同意,说的确有原子,但是人不止是由原子构成的,总还有点别的东西。

  科学家几乎都站在第一阵营,科学家认为世界的万事万物都可以还原,如果不还原,这个事就没办法解释。所以必须找到一个解释,通过还原论来讲,就一定能找到这个物质的原因。你的爱情仅仅是一些分子运动,你的意识仅仅是一些神经元的缠绕,能够最终靠各种各样的东西来证明这一点。

  很多人都坚信,快乐与痛苦主要根据多巴胺的分泌水平,所谓的快乐只是多肽扛着多巴胺前进

  但是二元论者认为这是不对的。这里有很多的哲学思考,为什么有的人会相信二元论,有的人会相信一元论,其实本质上我们归结为他们对现实本质的信仰是什么。

  再次回到信仰问题,我们会说一元论是理性和现代的,但是这样一个世界上永远有人相信理性和现代的东西是不对的,还有很多东西是精神的,是原子解释不了的。这就是一元论和二元论的矛盾。哪怕我们大家可以证明你跟石头一样都是原子,我跟这个桌子一样都是原子;但是你可以用一个石头、用一个锤子把这个桌子彻底粉碎,毫无内疚。你用一个锤子砸在我脑袋上,你会毫无内疚吗?一元论和二元论在这里会陷入一个巨大的崩塌。

  因此我想说,以上三个问题是今天AI时代必须要思考的三个问题,而它的思考方向本质上是要讨论人类的信仰到底是什么。人类信仰的问题以往是哲学家们的专利、是神学家们的专利,但是今天的人工智能把这样的一个问题推到所有人面前,那么所有人,尤其是AI领域的从业者都需要仔细考虑这样的一个问题,秉持着什么样的信仰会决定人工智能将来会达到什么程度,会怎么样被应用。■