星期四, 2 4 月

【专家之眼】人工智慧的两张恶脸:职场清洗与战场屠杀

本月中旬,美国军方正式确认,在伊朗战役中,五角大厦大量倚赖人工智慧辅助决策,旗下系统在开战后短短二十四小时内,便锁定了超过一千个攻击目标。这套系统整合了Palantir的智慧平台,其中更嵌入了美国AI公司Anthropic的大型语言模型。消息传出后,舆论哗然。

令人讽刺的是,Anthropic本身不久前才因试图限制其技术被用于全自主武器与大规模监控,与美国国防部正面交锋,闹上法庭。一家标榜以「AI安全」为使命的公司,其核心技术却出现在现代战场的杀伤链上,这不只是新闻,更是一个警惕。

人工智慧的时代确实来临了,但它同时以截然不同的面貌敲响了两扇门。一扇门通向办公室,另一扇门通向战场。

在办公室这一侧,情况同样令人不安。今年二月底,支付科技公司Block宣布裁员四千人,相当于整体员工人数的四成。执行长在致股东信中毫不掩饰地将这波裁员与AI挂钩,他写道,AI工具正在让更小、更扁平的团队得以用全新的方式运作,从根本上改变了企业的建构与经营模式,并预言业界大多数公司将在一年内得出相同结论。

几乎同一时间,亚马逊宣布裁减一万六千人,尽管该公司在2025年创下了历史最高营收。这两家公司的共同点,在于都是在财务表现亮眼的情况下大砍人力,而裁员的理由,都指向同一个名字:人工智慧。这不再只是底层工作被取代的故事,而是一场从基层到中高层、席卷整个白领生态的结构性清洗。

辉达执行长黄仁勋最近在公司的年度开发者大会上试图缓和这种恐慌,他呼吁科技业者停止用裁员来回应AI带来的效率提升,认为那是「缺乏想像力」的表现。他描绘了一幅美丽的愿景:AI让每一位木工都能晋升为建筑师,让每一位水电工都能拥有更广阔的工作视野。但黄仁勋回避了一个核心问题,并非每位工人都渴望成为建筑师。有人就是想凿木,就是想接管线,这些人的选择与尊严,并不比矽谷的宏观愿景低一个层次。

NBC最新民调显示,美国民众对AI的反感程度,竟然超越了饱受批评的移民执法机构ICE,甚至超越了现任总统川普的净支持率。有四成六的受访者对AI持负面态度,反观正面评价不到三成。这个数字不该被轻描淡写为「无知恐惧」。公众对AI的反感,有著清晰可辨的理由。AI助长了监控,让部分政府如虎添翼地迫害少数族群;AI被整合进战争机器,让生死决定变得愈来愈机械化和不透明;AI的大规模部署带动了数据中心的无限扩张,引发了缺水危机、电费飙升、空气恶化。

更令人忧心的是问责机制的消失,传统军事决策中,每一个指挥决定都有一个可以被追究的名字。AI介入之后,责任在开发商、系统操作者、审核军官之间漂浮,没有人真正拥有那个「判决」,但每个人都宣称自己只是辅助。这种责任的模糊化,对国际人道法而言是根本性的挑战,而现有的国际规范框架对此几乎毫无准备。

一个社会对新技术的集体态度,往往在它真正理解这项技术之前就已定型。如今,那些形塑公众意见的事件,正在以极快的速度积累,包括自动化带来的工作焦虑,AI辅助的战场死亡,聊天机器人对心理健康的侵蚀,资料中心对社区环境的压榨等。我们若是等到民意强烈反弹再来想办法管理,代价可能远比现在主动设下清晰边界、建立透明的问责机制要沉重得多。

这不是要在「拥抱AI」和「拒绝AI」之间二选一,这是一道更难回答的问题。我们愿意让AI在什么样的条件下进入我们的办公室、我们的社区、我们的战场?那个「我们」,究竟由谁来代表?

人工智慧的时代来临了,它同时以截然不同的面貌敲响了两扇门,一扇门通向办公室,另一...
人工智慧的时代来临了,它同时以截然不同的面貌敲响了两扇门,一扇门通向办公室,另一扇门通向战场。(图/路透社)

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注