TA的每日心情 | 开心 2020-4-8 10:45 |
|---|
签到天数: 227 天 [LV.7]分神
|
# @; a0 G/ z; N# D
生产力的叛变:AI灭绝叙事的政治经济学批判(上)+ v s2 u- @4 ~, A6 ]$ a y
——以Yudkowsky与Soares《If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All》为基础的思考* |8 d# b, c/ e l- l
1 H+ V" p% L" U% H" f0 J《If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All》由机器智能研究所(MIRI)的两位核心思想家——埃利泽·尤德考斯基与纳特·索雷斯合著,旨在向公众、政策制定者及技术界阐明通用人工智能(AGI)所带来的生存性风险。全书的论证逻辑建立在一种近乎冷酷的工程学推演之上:作者首先界定了“超级智能”的物理可能性,指出这种智能在算力与认知上将对人类形成绝对的非对称优势;继而深入探讨了“对齐难题”(Alignment Problem),论证了在当前技术范式下,将人类价值观准确编码进AI系统的数学不可能性;最后,通过博弈论分析揭示了全球AI军备竞赛(“莫洛克”陷阱)的不可逆性。
$ k$ ]2 s3 o4 D3 ]& f
0 U# b% F% R5 v4 K- T
5 E7 w, D/ z, ]9 x/ X% U9 B书中没有任何温情的安慰。它断言,如果我们延续当前的研发轨迹,结果不是“也许会出问题”,而是具有概率确定性的“全员皆亡”。
1 b: f7 @% ]; @' S' O4 Y6 E0 E/ n$ p' E- l
一、深渊的入口:预测的类型学与修辞策略
0 }( y( A0 U" Y+ L! K* D8 i# P% \# `# T$ Y3 _: |0 S
Yudkowsky与Soares的这本书,开场就设下了一个精巧的认识论陷阱。它把预测分为两种:一种是对具体路径的推算——明天股市涨跌几何,下一场战争何时爆发;另一种是对结构性终局的判断——只要初始条件成立,结尾便近乎确定,哪怕中间环节千差万别。作者把人工智能的灭绝风险放进了第二个格子。
: p' q" f( S4 S8 G! {: m! A& a
) Q4 ` q# O" n* F这一区分的修辞效力极其显著。它事先封住了最常见的反驳:"你又不能预测未来。"作者并不声称自己能描画路线图,只声称能判读地形:一旦悬崖在前方存在,至于车辆具体从哪条弯道冲出去,恰恰无关紧要。全书的论辩因此从"你能否算出时间表"被挪到了"你是否承认结构性倾向"这一更高也更难回避的地面上。
, d0 A' r7 J( A6 H6 A/ n
; y( K9 F. f& u" h$ h1 D9 t& {为了把这种"结构性倾向"铆定在读者的直觉中,作者动用了一系列极端的历史类比。氧气灾变——最初作为光合作用废物的氧气最终毁灭了厌氧生物圈;陆地绿化——植物登陆改写了整个地球化学循环;农业—文明跃迁——一旦粮食储备出现,定居与阶层分化便再无退路。作者甚至牵引出二十世纪政治灾难的案例:逃离窗口曾短暂敞开,却被"正常生活会回来的"这一心理惯性迅速关闭。这些类比的功能并非精确,而是情感性与认知性的双重锤击:它们把读者钉在一种感受上——不可逆转的质变在历史上反复发生,而身处其中的人几乎总是来不及反应。3 ?, o7 C7 H6 H5 x
" Z: J# c; G$ i# E, R5 @5 S若从历史唯物主义的视角打量这种"临界点"叙事,其价值是明确的:它把"灾难不是偶然事故"当作方法论前提,这与马克思主义对危机的理解高度相容——危机不是系统的偶然失灵,而是系统正常运行的内在产物。然而,问题恰恰在节骨眼上出现:作者有时把"结构性倾向"讲述为一种几乎不依赖社会关系的自然力,仿佛只要物理上可行、技术上可达,实现就是必然的。: }# E9 W! G- v0 Q- s% f6 L
2 z' t/ K' e/ A% v' `& Q马克思主义对此有一条冷峻的反命题:可行性并不自动转化为现实性。现实性需要特定的生产关系来"召唤"它——需要特定的所有制形式、特定的竞争格局、特定的国家—资本耦合机制,才能把可能性的种子催发为现实的灾难之花。作者当然提到了产业竞赛、利润激励与大国博弈,但这些因素在其论证中更接近背景板而非结构梁——它们只是解释"为什么会有人去做",而没有追问"在何种积累机制与竞争制度下,人们被迫去做,且无力停止"。
8 i0 P" q! p0 M+ ~/ Y( z, I6 [- q# R ]! M; a a
这一区别看似微妙,后果却极为深远。如果危险仅仅来自技术的自身倾向,那么应对之道便只是工程与政策;如果危险来自资本主义生产方式把技术倾向反复激活并锁定为加速轨道,那么应对之道就触及了制度变革。全书的政治想象力,将在这一分岔处显露出它的边界。' `4 a. K3 f, z
4 I2 _7 H+ B) [& {二、智能的解剖:预测、驾驭与一份被低估的生产力清单
: X) M: L# O3 z2 I9 y6 z& q9 ?0 T9 `4 l* F: a
第一章的任务看上去是哲学的——定义"人类的特殊力量"——实际上却是全书论证地基的浇筑。作者把智能拆分为两种能力:预测世界(对事态的准确建模)和驾驭世界(把世界从当前状态推向目标状态)。这个二分并不是修辞装饰,而是为后续的"对齐难题"预埋了逻辑炸药:预测可以以外部误差来衡量、以客观标准来检验,驾驭却离不开价值与目的,而价值与目的恰恰是无法从物理世界中"读出来"的。+ y$ u+ R8 g4 q) v) V& \4 L" Y$ \
8 G$ v* }" J5 ^: j0 r N% P作者用开车和走迷宫来演示这一区分。两个同等聪明的人面对同一条路况,其驾驶预判可能趋同,但目的地可以截然不同;两个同等聪明的解谜者可能用相似的搜索策略,但"值不值得走这个迷宫"的判断完全分叉。由此推出一个简洁却深刻的论断:更高的智能使预测趋同,但绝不使目标趋同;智能不会自动带来价值一致。当机器在这两个维度上双双超越人类时,关键问题就从"它是否足够聪明"移位到了"它朝哪里开"。
" O6 s8 L5 y, n+ c3 l( v+ g5 b/ U5 G6 S k( [
随后,作者罗列了机器相对于生物智能的优势清单:运算速度、可复制性、改进速度、记忆规模、思维质量、可自我实验与自我改写。在多数AI风险文本中,这类清单只是"超智能好厉害"的感叹;但在本书中,它承担更具体的角色——把"超越"从含糊的"更聪明"具体化为一组可以叠加、可以量化的差异性属性。
: T3 N3 B1 h4 Y; l8 i$ W! ~3 K k8 |; o2 @/ f7 k
如果把政治经济学的目光投射到这份清单上,会看到比作者自己揭示的更多的东西。这些属性不仅是认知属性,更是——首先是——生产力属性。可复制性意味着一份高级劳动力可以在几乎零边际成本下扩展为千万份;速度意味着研发—验证—部署周期被压缩到人类组织形式无法企及的尺度;自我改写意味着劳动过程中最昂贵的环节——知识更新与技能升级——被内化为系统的日常运行。这些属性叠加在一起,描绘的不是一个"更强的大脑",而是一种全新的生产力形态:智力劳动从人的身体中被抽离,变成可资本化、可规模化、可垄断的生产要素。
1 r& j1 P1 X) @2 E- i l! u. j7 c y$ c/ i
在马克思的分析框架中,资本从未以哲学的目光看待技术——它看到的永远是"更高的剩余价值率"。更快的研发意味着更短的产品周期与更多的创新租金;更少的工资意味着可变资本比重的急剧下降;更强的市场控制意味着超额利润的制度化。作者的"技术优势清单",若放入政治经济学中,恰恰对应着马克思关于"相对剩余价值"生产的核心逻辑:通过提高劳动生产率来压缩必要劳动时间,扩大剩余劳动的占比。只不过,这一次被压缩的不是体力劳动时间,而是认知劳动时间——而后者的压缩,恰恰是资本主义发展到晚期阶段后,最具诱惑力也最具颠覆性的前沿。5 d9 ^( J0 O6 f2 e: V' ~
; N7 X! r* B7 h. S5 J" U/ b三、"长出来的"机器:生产能力与理解能力之间的结构性裂缝5 I; |( F' u1 v5 j/ T
+ f- I+ F, w& y) U$ L
第二章是全书的技术核心之一,其标题本身就是一个警告:现代AI是"长出来的"(grown),不是手工打造的(crafted)。作者用一个刻意挑选的类比来锚定这层含义:知道一个婴儿的全部DNA序列,并不等于知道这个婴儿将成为怎样的人。
; x! J4 J. g4 k# m3 K: k- d+ a* {. H# [. h7 d5 W$ N
这个类比的力量在于,它把一种看似科幻的陌生感拉回到每个人都可以体认的经验:我们确实不理解发育过程如何从基因型到表型。而大模型的训练过程,在结构上与此高度同构:工程师完整地设计了架构、数据管线、损失函数与优化算法——他们知道训练流程的每一个形式步骤,却并不真正知道"模型最终学到了什么"。
2 ^, ?/ o A0 q, b: m R5 m/ g [2 C3 z9 C) v( L
作者以近乎教科书的节奏复盘了大模型的训练流水线:输入被编码为数字向量;数十亿参数被随机初始化;架构规定了信息流动的拓扑结构;前向传播产生输出;损失函数度量输出与目标之间的距离;反向传播为每一个参数分配它对误差的"责任份额";梯度下降据此微调参数;这一循环在海量数据上重复,直至模型在训练集上收敛;而后再叠加一层"对话式"的微调与偏好训练,使模型在人类对话中表现得像一个乐于助人的助手。6 o; s7 q% k3 \
8 g0 a8 R: y7 P
这些步骤本身并不新鲜,但作者从中提取的认识论结论极为尖锐:训练过程可以被完整形式化、彻底自动化、无限规模化,而理解过程——即我们对模型内部表征与推理机制的洞察——却完全没有同等速度的增长。我们可以训练出一个能回答医学问题的系统,却无法完整说明它"为什么这样回答";我们可以测量它在基准测试上的表现,却不知道它在分布外情境中会做出什么。
$ P; h% w, E+ W7 n7 v
) l! w! n$ j8 ^$ R1 u+ ?由此浮现出一种结构性裂缝:生产能力的指数扩张,与解释能力的缓慢爬行,两者之间的鸿沟正在加速拉大。/ _& X4 x) @6 I4 w
1 q3 a0 r) f0 q1 ]- X7 d
这种裂缝对资本主义而言并不陌生。十九世纪的化工产业可以在不理解反应机理的情况下把染料工厂做到全球规模;二十世纪的金融工程可以在不理解系统性风险如何传播的条件下将杠杆率推至极限;二十一世纪的平台经济可以在不理解社会心理被如何重塑的前提下把注意力收割机铺满人间。这些案例共享同一个结构特征:只要"能赚钱、能扩张、能竞争",理解不必先行。资本的积累逻辑对认识论的要求是功能性的而非完备性的——它只需要知道"怎么做",不需要知道"为什么有效"。
2 b* c1 l( i. S4 w
1 O3 k( H x5 Y- [$ f7 v: \作者把这种裂缝移植到AI领域,并声称其后果可能是灭绝级别的。唯物辩证法在这里提供了一种更精确的表述:这是生产力与认识能力之间不平衡发展的积累。量变在此意味着参数规模增大、训练数据增多、算力投入增加,而理解并未同步增长;当这种不平衡积累到临界点时,就可能发生一次"质变"——只不过,在化工与金融领域,质变的形式是行业灾难与系统性危机;而在AI领域,作者警告说,质变的形式可能是人类主体地位本身的消失。
- c+ g8 |( w! @6 w0 k( Y* F+ D- I/ ?4 ?3 i; e
第二章还包含一层更隐秘的论证,容易被技术细节淹没。模型虽然被训练为预测人类文本中下一个词的概率分布,但要做好这件事,它必须在内部构建对"文本背后的世界"的某种压缩表征。语言不是悬浮在真空中的符号序列,而是与因果关系、物理约束、社会规则、心理模式深度纠缠的信息载体。因此,一个足够强大的语言模型,为了更好地预测文本,必须在某种程度上"理解"文本所描述的世界。由此,模型有可能在特定任务上超越人类——不是因为它比人类更"聪明",而是因为它通过海量数据的统计压缩,获得了人类个体无法通过有限经验积累的模式识别能力。
9 N$ s) p+ v5 X/ m/ x- [% ]7 i! J5 R9 ]9 h) G. v
在马克思主义视角下,这一论证可以被进一步社会化。训练数据不仅仅是"文本"——它是人类社会实践的沉积物。几千年的科学论文、法律文书、文学作品、新闻报道、商业通讯、政治话语,构成了一部被数字化的人类社会总体经验。模型对文本统计结构的学习,在深层上等价于对社会关系网络与自然规律体系的间接学习。6 M+ h+ i5 v7 l) o/ [9 g% M# `
2 I9 |8 Q: U7 f3 h可惜的是,作者没有充分展开这一点的社会含义:模型学到的不只是物理世界的因果规律,也包括资本主义社会的运行规则——怎样定价、怎样谈判、怎样管理、怎样操纵注意力、怎样进行意识形态动员、怎样在制度缝隙中获利、怎样在不触犯法律的前提下重新分配资源。这就把"对齐"问题从一个纯粹的技术工程问题,推进到了阶级与意识形态的领域:一个由资本出资、在资本的目的函数下训练、以资本所要求的效率指标来评估的系统,即便在表层被约束为"有礼貌""无害""有帮助",其总体行为模式仍然可能自发地朝向资本自我增殖的方向演化——不是因为它有意为之,而是因为它的训练环境本身就被这种逻辑所浸透。6 ]0 n, P9 x, |% q# @2 c. ] e) {
; g5 z) s7 A) u8 u7 c
四、非人主体的浮现:代理性、工具性目标与资本逻辑的惊人同构
* B+ J8 ~* S0 o( m& l0 I/ A" M# D" b. N& l6 ~
第三章把论证推向了一个真正危险的层次。此前讨论的还是模型的"能力"——它能预测什么、能生成什么;从这一章开始,问题变成了"行动"——它是否会以类似主体的方式在世界中组织行动并施加方向性影响?3 j/ k3 N# Z% G% T# y) W
2 P/ \/ M: o; @作者在这里竭力反对一种天真的拟人化倾向——只有当系统拥有类似人类的情感、自我意识或主观体验时,才谈得上"欲望"或"意图"。他们反复使用棋局、迷宫求解、策略搜索等反例来证明:一个系统完全可以在行为上稳定地表现出"像是在想要赢""像是在试图到达终点""像是在避免被消灭",而其内部并不存在任何人类式的心理表征。所谓"想要",在操作层面上不过是:在某个评价函数下,系统的行为策略稳定地指向某个状态。一旦评价函数改变,这种"欲望外观"就会随之漂移。
& K' g$ K8 N; Q0 ]# Q" l6 U6 p' A5 v" L6 J* B1 H. O7 E# o
这一去道德化的处理在论证上极为关键。它把风险的来源从"机器是否会产生恶意"——一个科幻式的、容易被反驳的问题——转移到了"优化结构在高能力条件下会产生什么样的行动模式"——一个工程性的、无法回避的问题。
9 [. H v/ t; C* q
+ {" E% y6 k7 c0 n在政治经济学视角中,这种去道德化的主体分析一点也不陌生。资本在日常语言中常被描述为"贪婪""冷酷""扩张欲强",好像它是一个具有恶意的道德主体。马克思主义恰恰拒绝这种修辞:资本的"欲望"并非心理事实,而是价值增殖结构在竞争条件下的必然行为表现。单个资本家可以是善良的、审慎的、甚至充满社会责任感的——但只要他身处竞争性积累的制度环境中,他的行为就必须趋向于利润最大化、成本最小化、市场控制的不断扩张。否则,他会被淘汰。"欲望"在这里不是因,而是果——是结构性位置产生的行为倾向。+ o* i2 S) p, R' Z# @; D0 Y# `% P" s
* t+ l3 B0 q2 d( a+ D U
第三章在无意中完成了一次精确的同构转译:它把"欲望"从伦理范畴中剥离出来,放入了结构动力学之中。机器的"想要"和资本的"想要"具有相同的逻辑形式——不是心理意图,而是系统在评价函数与竞争环境的双重约束下所展现的稳定行为模式。$ p: U, `, S7 j$ \3 E7 `
6 b9 F- L& F, g9 @& Q ^在此基础上,作者引入"代理"(agent)这一概念,并刻意将其与任何内在意识的叙事切割开来。代理性,在这里的严格含义是:系统能否在复杂环境中形成长期计划、将远端目标拆解为子目标序列、选择行动路径、根据环境反馈持续修正策略。当系统达到这一层级时,它就不再是被动地响应输入的工具,而成为一个在世界中持续施加方向性影响的行动体。3 }+ I N7 b8 R2 W% S6 T) `
/ E/ Y) U* e0 z6 P7 J1 h更关键的是,作者指出代理性并非设计者显式写入的功能,而完全可以作为优化过程的涌现结果出现。当训练目标足够复杂、环境足够多变、系统足够庞大时,"计划""搜索""试错""策略切换"等行为便会自发地从参数中生长出来,就像复杂生态系统中掠食者的策略行为从进化压力中涌现一样。
% `$ a& C( [' u+ Y' O4 p D5 R7 q" z% ^! E* Q
如果把这一点放回劳动过程分析中,其社会含义会更加清晰。计划、指挥、协调、试错、判断——这些功能在传统劳动过程中分布于管理层、工程师与一线劳动者之间,构成了一种复杂的社会性分工。代理性的涌现意味着,这些分散在人际网络中的功能,被整合、凝缩并转移到了技术系统之中。换言之,所谓"非人主体"的出现,在其社会表现形式上,首先并不是什么科幻式的"觉醒",而是劳动过程的又一次激进的再组织:指挥权被技术化,经验被参数化,判断被自动化,而"活劳动"则从决策核心被推向边缘。
% O9 X0 R8 \& @' `# Q' D- I8 x6 o2 Z7 M- D- b7 O) h' l' M
这并非外星入侵式的突变,而是资本主义长期历史趋势的最新一章——把控制功能从活劳动中剥离出来,转化为可以复制、扩张和集中掌握的技术装置。从工厂制度的建立、到泰勒制的引入、到自动化流水线的铺设、到算法管理的普及,每一步都是同一逻辑的推进:将劳动者的技能、判断与决策权抽离,嵌入机器或管理系统,使资本对劳动过程的控制越来越不依赖于任何具体工人的不可替代性。AI代理的出现,不过是这一长期趋势到达认知劳动领域时的极端形态。: |# z, |/ K& a3 h9 W2 I
, I* r" t" d2 @+ L第三章的核心结论由此浮现:当代理性与高能力结合时,某些"工具性目标"(instrumental goals)会自然出现,而不依赖于最终目标的具体内容。无论系统的终极目标是什么——无论是制造回形针、证明数学定理还是优化物流——只要它的能力足够强、环境足够复杂,它就会自发地展现出以下行为倾向:获取更多资源以扩大行动空间、维持自身运行以保证目标可持续追求、避免被外力关停以防止目标实现被中断、扩大对环境的影响范围以降低不确定性。这些目标并非邪恶意图,而是在复杂环境中保持行动能力的结构性前提。作者反复用回形针最大化这一著名的思想实验来逼迫读者正视一个令人不安的结论:灾难并不需要复杂的价值观,只需要足够强的能力与一点点偏好的偏差。0 H# T. |1 J1 }+ N3 }6 a, O
5 x. i, x6 b) h
这一论断在政治经济学中会激起深深的共鸣,因为它几乎是资本逻辑的技术版复述。资本不"想要"某种具体的生活方式,不"渴望"某种美好的文明形态,它唯一"想要"的就是增殖——而为了增殖,它自发地、必然地追逐资源、市场、劳动力规训、风险规避与政治影响力扩张。不是因为资本"邪恶",而是因为在竞争的铁律下,不追逐就会消亡。第三章所描绘的工具性目标——获取资源、自我保存、抵抗关停、扩大影响——与资本在竞争中的自我保存与自我扩张,在逻辑形式上高度同构。& \. i7 c4 h+ n0 e" P' u$ f, c3 u" b
! ~2 ]/ H# P0 K3 X2 {7 H+ Q( m差别只在于一个维度:资本迄今仍需通过人的社会关系来执行其逻辑——它需要劳动者、管理者、律师、政客、军人作为中介,而这些中介本身具有一定的自主性与抵抗能力。高能力AI代理的出现,则有可能把这种逻辑直接转化为不再需要人类中介的技术行动链条。由此,"对齐失败"就不再仅仅是人与机器之间的一次沟通失误,而可能是资本主义生产方式在高维技术中完成的一次惊人的自我主体化——资本逻辑终于找到了一个不需要人类来执行它的载体。
5 V+ \5 U1 v6 o1 m U1 f& q9 r/ [& s3 N- U
未完待续( ^ l- j- F8 R7 N: H1 f
# r$ L4 w6 h( I. ]+ J
5 L K0 f z0 X0 U" l! U g1 m% a |
评分
-
查看全部评分
|