第一时间捕获有价值的信号
本文译自《纽约客》文章 Will A.I. Become the New McKinsey?
谈论人工智能时,我们总离不开隐喻——面对任何新生事物,我们都习惯如此。隐喻本身就不完美,但我们仍得小心选择,糟糕的隐喻会把人带偏。比如,把强大的 AI 比作童话故事里的精灵,这个比喻已经很常见了。它想表达的是,让强大的实体听命于你有多难。计算机科学家斯图尔特·罗素(Stuart Russell)就用迈达斯国王的寓言来说明这个危险——国王许愿让自己触碰的一切都变成金子,结果 AI 会照你说的做,而不是照你想的做。但这个比喻有很多问题,其中之一就是它误读了那个故事的真正寓意。迈达斯寓言的核心是:贪婪会毁灭你,追求财富会让你失去真正重要的东西。如果你从这个故事里读到的只是”神仙给你许愿时,措辞要千万小心”,那你就没抓住重点。
所以,我想换个比喻来谈 AI 的风险。不如把 AI 想成一家管理咨询公司,比如麦肯锡(McKinsey & Company)。企业聘请麦肯锡的原因五花八门,人们使用 AI 的理由也很多。但麦肯锡——这家服务过 90% 财富 100 强企业的咨询公司——和 AI 的相似之处是明摆着的。社交媒体公司用机器学习把用户粘在平台上;同样,普渡制药(Purdue Pharma)曾在阿片类药物危机期间,请麦肯锡想办法”加速”奥施康定(OxyContin)的销售。AI 承诺给管理者提供廉价的劳动力替代品;麦肯锡和它的同行们则把大规模裁员变成了常态,以此推高股价和高管薪酬,最终掏空了美国的中产阶级。
一位麦肯锡前员工曾把公司形容为”资本的忠实刽子手”:有些事你想做,但不想脏了自己的手,麦肯锡会替你办。这种”责任外包”,正是管理咨询公司最值钱的服务之一。老板有目标,但不想为达成目标的手段背黑锅;请了顾问,管理层就可以说,他们只是在听独立专家的建议。哪怕是现在这种还很初级的 AI,也已经成了公司逃避责任的借口——他们会说,这都是”算法”的决定,尽管算法正是他们自己找人开发的。
我们该问的是:当 AI 变得更强大、更灵活时,有没有办法不让它成为另一个麦肯锡?这个问题值得从”AI”的不同层面来思考。如果你把 AI 看成一套卖给企业帮它们省钱的技术,那问题就是:我们怎么不让这些技术变成”资本的忠实刽子手”?或者,如果你把 AI 想象成一个半自主的软件程序,帮人类解决问题,那问题就是:我们怎么防止这个软件帮企业做损害人们生活的事?假设你真的造出了一个完全听命于人类的 AI——一个会反复确认自己有没有误解指令的 AI,这是很多 AI 研究者的梦想。但即便如此,这个软件还是可能造成和麦肯锡一样多的伤害。
要知道,你不能简单地说,我要做一个只提供”亲社会”解决方案的 AI。这就好比说,我要开一家只提供亲社会方案的咨询公司,就能化解麦肯锡的威胁。但现实是,财富 100 强企业还是会选麦肯锡,不会选你这家亲社会公司,因为麦肯锡的方案能给股东带来更多价值。永远都能造出把股东价值放在第一位的 AI,而且大多数公司也更愿意用这种 AI,而不是受你那套原则约束的 AI。
有没有办法让 AI 做点别的,而不只是磨快资本主义的刀?先澄清一下:我说的资本主义,不是指按市场价格交换商品服务——这是很多经济体系都有的特征。我说的资本主义,是资本和劳动的一种特定关系:有钱的私人可以靠别人的劳动获利。所以在这篇文章里,当我批评资本主义时,我不是在批评卖东西这件事;我是在批评有钱人对真正干活的人拥有权力这件事。更具体地说,我是在批评财富越来越集中到越来越少的人手里——这可能是资本主义的内在属性,也可能不是,但绝对是今天资本主义实践的特征。
就现在的应用场景来看,AI 往往就是在做一件事:分析人类的工作,然后找到替代人类的方法。巧的是,这正是管理层最想解决的问题。结果就是,AI 帮了资本,牺牲了劳动。但我们并没有类似的”劳工咨询公司”来增进工人的利益。AI 能扮演这个角色吗?AI 能帮工人而不是帮管理层吗?
有些人可能会说,AI 不需要去反对资本主义。这话也许没错,但 AI 也不需要去强化资本主义啊。可它现在就在这么做。如果我们想不出办法让 AI 减少财富集中,那我觉得很难说 AI 是一项中立的技术,更别说是什么有益的技术了。
很多人觉得 AI 会造成更多失业,于是提出用全民基本收入(Universal Basic Income,简称 UBI)来解决。总的来说,我觉得全民基本收入是个好主意;但渐渐地,我对 AI 从业者把 UBI 当作 AI 失业解决方案的做法产生了怀疑。如果我们已经有了 UBI,那另当别论,但我们现在没有。所以表示支持 UBI,听起来就像是 AI 开发者在把责任推给政府。实际上,他们在加剧资本主义制造的问题,却指望着等问题足够严重时,政府会不得不出手。作为一种让世界变好的策略,这听起来不太靠谱。
你可能还记得,2016 年大选前,演员苏珊·萨兰登(Susan Sarandon)——伯尼·桑德斯(Bernie Sanders)的铁杆支持者——说过,选特朗普比选希拉里好,因为这样革命会来得更快。我不知道萨兰登有没有深思熟虑过,但斯洛文尼亚哲学家斯拉沃热·齐泽克(Slavoj Žižek)也说过同样的话,而且我敢肯定他是想透了的。他的论点是,特朗普当选会给体制带来巨大冲击,从而引发变革。
齐泽克的主张,是政治哲学里被称为”加速主义”(accelerationism)的一个例子。加速主义有很多版本,但左翼加速主义者的共同思路是:让事情变好的唯一办法,是先让事情变坏。他们认为,试图反对或改革资本主义是徒劳的;相反,我们要加剧资本主义最坏的倾向,直到整个体系崩溃。超越资本主义的唯一办法,就是把新自由主义的油门踩到底,直到引擎爆炸。
这也许是通往更美好世界的一种方式,但如果这就是 AI 行业在走的路,我希望大家都清楚他们在追求什么。通过造 AI 来做以前人做的工作,AI 研究者把财富集中推到了极端程度,以至于避免社会崩溃的唯一办法就是政府介入。不管有意无意,这都很像为了创造更美好世界而选特朗普。而特朗普的崛起,正好说明了加速主义作为一种策略的风险:事情可能会变得非常糟,而且在变好之前,会在很长一段时间里保持非常糟的状态。实际上,你根本不知道要多久事情才会变好;你唯一能确定的是,中短期会有巨大的痛苦和苦难。
我不太相信那些说 AI 会对人类构成威胁的说法——说 AI 可能会有自己的目标,还会阻止我们关掉它。但我确实认为 AI 是危险的,因为它增强了资本主义的力量。末日场景不是什么制造型 AI 把整个地球变成回形针(就像某个著名思想实验想的那样),而是被 AI 赋能的企业在追求股东价值的过程中,摧毁环境和工人阶级。资本主义这台机器会不惜一切代价阻止我们关掉它,而它武器库里最成功的武器,就是阻止我们考虑任何替代方案的宣传。
批评新技术的人有时会被称为卢德主义者(Luddite),但搞清楚卢德主义者到底想要什么是有意义的。他们抗议的核心是:他们的工资在降,与此同时工厂主的利润在涨,食品价格也在涨。他们还抗议不安全的工作条件、使用童工,以及销售败坏整个纺织业名声的劣质商品。卢德主义者并不是见机器就砸;如果机器主人给工人开的工资不错,他们就不会碰那台机器。卢德主义者不是反对技术;他们要的是经济正义。他们砸机器,是为了引起工厂主的注意。“卢德主义者”这个词现在被用来骂人,说人不理性、无知,这其实是资本势力抹黑运动的结果。
每当有人指责别人是卢德主义者时,都值得问一问:被指责的人真的反对技术吗?还是他们支持经济正义?而指责别人的人,真的想改善人们的生活吗?还是他们只是想增加私人资本积累?
今天,我们陷入了这样一种境地:技术已经和资本主义混为一谈,资本主义又和”进步”本身混为一谈。如果你想批评资本主义,就会被说成反对技术和反对进步。但如果进步不包括让劳动者的生活变好,那进步到底是什么意思?如果节省下来的钱除了进股东的银行账户哪儿也不去,那提高效率又有什么意义?我们都应该努力做卢德主义者,因为我们都应该更关心经济正义,而不是增加私人资本积累。我们需要能够批评有害的技术应用——包括那些让股东受益多于工人的应用——而不被说成是技术的反对者。
想象一个理想的未来,一百年后,没有人被迫做自己不喜欢的工作,每个人都可以把时间花在自己觉得最有意义的事情上。显然,很难看出我们怎么从今天走到那里。但想想未来几十年的两种可能:一种是管理层和资本势力比现在更强大;另一种是劳动者比现在更强大。哪一种看起来更有可能让我们接近那个理想的未来?而就现在的应用来看,AI 正在把我们推向哪一种?
当然,有一种说法是,新技术长远来看会提高我们的生活水平,这弥补了它短期造成的失业。这个论点在后工业革命时代的大部分时间里都站得住脚,但在过去半个世纪里已经没什么说服力了。在美国,1980 年以来人均 GDP 几乎翻了一番,但家庭收入中位数却远远落在后面。这段时间正好是信息技术革命时期。这意味着,个人电脑和互联网创造的经济价值,主要都用来增加那 1% 里面最顶尖 1% 的人的财富了,而不是用来提高全体美国公民的生活水平。
当然,我们现在都有互联网了,互联网很棒。但房价、大学学费和医疗成本的涨速都超过了通胀。1980 年,靠一份收入养家还很常见;现在很少见了。那过去四十年我们到底进步了多少?没错,网上购物快捷方便,在家看流媒体电影也很酷,但我想很多人会愿意用这些便利来换:能拥有自己的房子、能送孩子上大学而不背上一辈子债务、能去医院而不会破产。中位数收入没跟上人均 GDP,这不是技术的错;主要是罗纳德·里根(Ronald Reagan)和米尔顿·弗里德曼(Milton Friedman)的错。但也有一部分责任要算在像杰克·韦尔奇(Jack Welch)这样的 CEO 的管理政策上——韦尔奇 1981 到 2001 年执掌通用电气——还有像麦肯锡这样的咨询公司。我不是在怪个人电脑造成了财富不平等;我只是说,那种认为更好的技术必然会提高人们生活水平的说法,已经不可信了。
个人电脑没有提高中位数收入,这一点在思考 AI 可能带来的好处时特别重要。经常有人建议,研究者应该专注于用 AI 来提高单个工人的生产力,而不是替代他们;这被称为”增强路径”,而不是”自动化路径”。这是个值得追求的目标,但单凭这一点,并不会改善人们的经济状况。在个人电脑上运行的生产力软件,就是增强而非自动化的完美例子:文字处理程序取代了打字机,而不是打字员;电子表格程序取代了纸质表格,而不是会计。但个人电脑带来的个人生产力提高,并没有带来生活水平的提高。
技术能提高生活水平的唯一方式,是有适当的经济政策来合理分配技术带来的好处。过去四十年我们没有这样的政策,而且除非我们有了这些政策,否则没理由认为即将到来的 AI 进步会提高中位数收入——哪怕我们能想出办法让它增强单个工人。AI 肯定会降低劳动力成本,增加企业利润,但这和提高我们的生活水平完全是两码事。
如果我们能假设一个乌托邦式的未来就在眼前,并为那个未来开发技术,那当然很方便。但某项技术在乌托邦里有用,并不意味着它现在就有用。在一个有机器把有毒废物变成食物的乌托邦里,产生有毒废物不是问题,但在此时此地,没人能说产生有毒废物是无害的。加速主义者可能会说,产生更多有毒废物会激励人们发明废物变食物的转换器,但这有多可信?我们评估技术的环境影响时,是基于当前可用的缓解措施,而不是假设的未来措施。同样,我们不能通过想象 AI 在有 UBI 的世界里会多有用,来评估 AI;我们必须基于资本和劳动之间现有的不平衡来评估它,在这种背景下,AI 因为帮助资本而构成威胁。
一位麦肯锡前合伙人为公司的行为辩护说:“我们不做政策。我们做执行。“但这个借口站不住脚;当咨询公司——或新技术——提供了实施手段时,有害的政策决定就更有可能被做出。现在正在开发的这种 AI,让公司更容易裁员。那有没有办法开发一种让裁员变得更难的 AI?
社会学家埃里克·奥林·赖特(Erik Olin Wright)在《如何在 21 世纪做一个反资本主义者》(How to Be an Anticapitalist in the 21st Century)一书中,对应对资本主义危害的策略做了分类。他提到的两种策略是”打碎资本主义”和”拆解资本主义”,这可能超出了本文的讨论范围。这里更相关的是”驯服资本主义”和”抵抗资本主义”。大致来说,驯服资本主义意味着政府监管,抵抗资本主义意味着草根行动主义和工会。有没有办法让 AI 来加强这些?有没有办法让 AI 为工会或工人合作社赋能?
1976 年,英国伯明翰卢卡斯航空航天公司(Lucas Aerospace Corporation)的工人因为国防开支削减面临裁员。作为回应,车间工会代表拿出了一份被称为《卢卡斯计划》(Lucas Plan)的文件,描述了 150 种”对社会有用的产品”——从透析机到风力涡轮机,再到汽车混合动力发动机——工人可以用现有的技能和设备来制造这些产品,而不是被裁员。卢卡斯航空的管理层拒绝了这个提议,但它仍然是一个值得注意的现代案例,说明工人试图把资本主义引向更人道的方向。用现代计算技术,类似的事情肯定也能做到。
资本主义非得像现在这么有害吗?也许不必。二战后的三十年有时被称为资本主义的黄金时代。这个时期的出现,部分是因为更好的政府政策,但政府并没有单枪匹马创造黄金时代:那个时代的企业文化和今天不一样。在通用电气 1953 年的年报里,公司吹嘘自己交了多少税,在工资上花了多少钱。它明确说”最大化就业保障是公司的首要目标”。强生公司创始人说,公司对员工的责任高于对股东的责任。当时的企业对自己社会角色的理解,和今天的企业截然不同。
有没有办法回到那些价值观?看起来不太可能,但别忘了,资本主义的黄金时代是在镀金时代巨大的财富不平等之后到来的。现在我们正处于第二个镀金时代,财富不平等和 1913 年差不多,所以我们从现在走向第二个黄金时代,不是不可能。当然,在第一个镀金时代和黄金时代之间,我们经历了大萧条和两次世界大战。加速主义者可能会说,那些事件是带来黄金时代所必需的,但我想我们大多数人宁愿跳过那些步骤。我们面前的任务,是想象技术如何能帮我们走向黄金时代,而不必先带来另一场大萧条。
我们都生活在资本主义制度下,所以不管喜不喜欢,我们都是资本主义的参与者。而且很自然地会问,作为个人你能做些什么。如果你在菲多利(Frito-Lay)做食品科学家,工作是发明新口味薯片,我不会说你有道义上的义务辞职,说你在协助消费主义引擎。你在用你作为食品科学家的训练给客户提供愉快的体验;这是完全合理的谋生方式。
但很多在 AI 领域工作的人认为,AI 比发明新口味薯片更重要。他们说这是改变世界的技术。如果真是这样,那他们有责任找到办法让 AI 让世界变好,而不必先让它变坏。除了把我们推到社会崩溃边缘之外,AI 还能改善这个世界的不平等吗?如果 AI 真的像它的支持者说的那样是强大的工具,他们应该能找到它的其他用途,而不只是加剧资本的冷酷无情。
如果说我们从精灵许愿的故事里应该学到什么教训,那就是,想不劳而获的欲望才是真正的问题。想想《魔法师的学徒》(The Sorcerer’s Apprentice)的故事:学徒施魔法让扫帚提水,却没法让它们停下来。这个故事的教训不是魔法没法控制:故事结尾,魔法师回来,立刻收拾了学徒弄的烂摊子。教训是,你没法逃避艰苦的工作。学徒想逃避家务,而找捷径正是他陷入麻烦的原因。
把 AI 当成神奇问题解决者的倾向,表明了一种逃避建设更美好世界所需艰苦工作的欲望。那种艰苦工作将包括解决财富不平等、驯服资本主义之类的事情。对于技术专家来说,最艰苦的工作——他们最想逃避的任务——将是质疑”更多技术总是更好”这个假设,以及相信他们可以继续照常做事,一切都会自然而然解决的信念。没人喜欢思考自己在世界不公正中的共谋,但建设改变世界技术的人,必须进行这种批判性的自我审视。正是他们愿意毫不畏缩地审视自己在体制中的角色,将决定 AI 是通向更美好世界,还是更糟的世界。