未来世界,人类缺的不是科技,而是人文。没有人文,人类将被推回野蛮时代。
我把AI视为透过数位科技所建构的「物体系」来经营「人类智能上帝化」的妄想,但却「异化」为「AI拜物教」。最终,并且在「加速」(acceleration)形态下不久的将来,想像的欲望将「异化」为失控的宰制,机械演算取代人类思考,AI形成「超现实」的新控制时代,我称为「后数位时代」:一个以AI为主导的「新荒原世界」,一个灵光(aura)消失的年代。
一,数位牢笼:未来世界的演算法宰制
在「后数位时代」,内心已被演算法管控,被关进「数位牢笼」(digital Cage)之中;人类不再怀抱热情与创新,而是顺从和自闭。
1,演算法:微型意识形态机器
起初,演算法被貌似中立的「逻辑运算程序」一词所定义,但随着「灵魂管控」机制的扩大,演算法已经变成一种「微型意识形态机器」,演化为一种『权力的语法』与『意识形态的中介』。
法国哲学家路易‧阿图塞(Louis Althusser)在《意识形态与意识形态机器》一书中就指出,国家除了透过压迫性国家机器(如军队、警察)维系统治,还依赖一套更隐蔽的「意识形态机器」──学校、家庭、宗教、媒体等──使个人「内化」(internalize)外部的统治逻辑,成为「自愿服从的主体」。如今,更隐蔽的工具已让位于演算法。斯洛维尼亚哲学家齐泽克(Slavoj Žižek)指出,意识形态最危险的形式不是强迫,而是自愿;科技公司透过平台治理、数据收集、演算法编码与语境控制,使意识形态变得看不见但全然在场。
于是,自由蜕变为「被预设的自由」(pre-configured freedom),一种认知幻象和主客错置,是一种在程式语法上被预先框定、被模型化的有限选择。在演算法规则之下,使用者只能在系统预设的参数范围内进行「误以为自由」的选择,而非从根本上创造选择、质疑规则或逃逸框架。
2、虚假的「演算法美学」
「演算法美学」寄托「美学」之名,使人误以为只要能生成得够快、够多、够像,就是美感和创意。实际上,演算法美学将「创造力」(creativity)转化为统计模型与偏好数据的映射结果,以统计代替真正的美学。在此意义上,演算法美学并非拓展感知,而是压缩想像、管理感官、编码创意。
在Kyle Chayka的《扁平时代》(Filter World:How Algorithms Flattened Culture)一书中指出,在「平庸最有利可图」的驱使之下,人类的品味开始下降;「平庸」成为获得最受推荐的大众品牌,或者说,大众品牌意味着最大限度的平庸。因为,演算法只计算数量,不会顾及品质,因为「品质」很主观,如果没有人类审美经验的判断,演算法只是在一堆「资讯垃圾山」之中进行挑选,并以空降的形式向你投放。
义大利哲学家阿冈本(Giorgio Agamben)认为,「品味」是一种感知中的裂缝与暧昧地带,它允许模糊、矛盾、暧昧与混合,但难以「被塑造」。然而,演算法塑造品味,特别是迎合主流、对比明显、已知偏好的输出,压缩创造性与差异性所散发的品味。在此意义下,使用者只是垃圾资讯的「受喂者」(the fed),舒适又不伤脑筋!
3,数位牢笼与主体性的消解
「数位牢笼」是由科技公司所打造和经营的隐形监狱。这个类似于法国哲学家福科(Michell Foucault)的「全景监狱」(Panopticon)概念,一个跨国资本集团所构建的「超现代剥削系统」。以齐泽克(Slavoj Žižek)的观点来说,「数位牢笼」不是透过强制灌输,而是透过愉悦机制、回馈系统与推荐逻辑,使你甘愿接受宰制。它不鼓励怀疑与批判,而是当下立即接受。
二,AI异化时代的来临
1,布希亚(Jean Baudrillard)观点:虚拟对真实的取代
依据法国哲学家布希亚(Jean Baudrillard)「超真实」(hyperreality)的观点,超真实属于「拟真」(simulation)的第三种形式,也就是虚拟对真实的直接取代。换言之,AI将成为一种能无限模拟人类意识与语言的拟像机器,却无任何真实内容。布希亚说过:「我们活在资讯越来越多,意义越来越少的世界」(We live in a world where there is more and more information, and less and less meaning.)
(1)自我的外包
所谓「自我外包」是指不做决定,不愿承担自己负责的压力、风险与责任。人们将原本属于内在、自主、私人或主体性的活动或决策,委托给外部的技术系统、平台或演算法来处理,成为「非责任主体」。
我们不再记忆和怀想,只会「查阅」(search)和「点击」(hit),把记忆交给Google、手机或云端。我们使用格式化的图案传达(Line的贴图),一个图案取代了人类千万种真实情感的内涵。我们透过外部工具(算命App、Replika、AI 咨询)来理解自己,而非沉思与内省;我们只是「选择他人的二手选择」,只是点击再点击。
(2)「幽灵主体」的形成
在虚拟取代真实之后,自我变成一种可以被演算法接管的技术流程,一种韩炳哲(Byung-Chul Han)意义下的「透明控制」与「积极强迫」(positivity-driven coercion),自我成为商品分类资料库的一个编号或代码,于是,海德格(Martin Heidegger)意义下的「在世存在(Dasein)的「存在」不再「在世」,齐克果(Søren A. Kierkegaard)的「绝望自我」开始形成并加剧,这就是「人类主体的幽灵化」。
面对「AI异化世界」的来临,人们应该自觉的对抗偏见而非默许演算法效益化。示意图/Freepik
2,肖莎娜‧祖博夫(Shoshana Zuboff):一切都是监控
祖博夫在她的《监控资本主义》( The Age of Surveillance Capitalism)一书中指出,AI并非数位运算的逻辑工具,而是资本主义的剥削机制下的监控系统,一种「工具主义权力」(Instrumentarian Power)。祖博夫把「演算法治理」(algorithmic management)视为资本积累( capital accumulation)的手段,不透明的、不可审查、难以追责、不需说服、不需暴力,却能透过数据与介面控制人心与行为的权力。这种权力是隐蔽的、温柔的,因而对公民社会具有更大的腐蚀性。
三,解除AI魔咒:「反异化」行动
1,重返海德格:让存有自己展现
在今日后数位时代,回到早期海德格(Martin Heidegger)的存有论,依然具有「再启蒙」的意义。海德格提出「让存在自身展现」(Gelassenheit 或 Sein-lassen)。
人类本真性(authenticity)的表达,不应存在于技术性与操作性的关系之中,而是「如其所是」地呈现,一种「去技术化/去数位同质化」的伦理实践。
德语中,Gelassenheit一词是指释放、静置、开放,Sein-lassen则指「让存在显示自身」。作为一种对「存有」(Being)召唤,海德格教导我们不要把生生不息的河流看成发电厂,不要把茂密的森林看成伐木工厂,不要把自由的人类变成数据生产/消费者,更不要把自我当成「演算人格」。对存在的谦卑与尊重,是向存有回归的必经之路。
2,侘寂:一场美学的斗争
源自日本、承继禅宗思想的「侘寂」(Wabi-Sabi)美学,既是一场审美战争,更是一种生命态度的坚持,它保持与AI美学「非共存」的立场,应被未来和平主义所寄托。
AI美学强调可预测性、高点击率、完美构图、色彩标准化与立即满足;侘寂美学则拥抱残缺、模糊、不对称、暂存性;它不依赖科技,但主张时间的沉淀与直观。一如李欧纳‧科恩(Leonard Cohen)一位信仰侘寂美学的加拿大诗人、小说家与音乐家,曾有一句出自他的专辑《The Future》的名言:「每件事物都有裂缝,那就是光进来的地方」(There is a crack in everything, that is how the light gets in)。
3,「AI对齐」(AI Alignment)运动
AI系统日益渗透至高风险社会系统与关键性基础设施,如电网、医疗、自驾车、武器开发……等等,如何避免AI的失控,包括对目标的误解或过度优化,是未来「AI对齐」运动(AI Alignment)的核心议题。
例如指标人物艾列泽‧尤考斯基(Eliezer Yudkowsky),保罗‧克里斯蒂亚诺(Paul Christiano),斯图尔特‧罗素(Stuart Russell)等人,致力于如何让AI模型学会「内化」人类价值与偏好的「技术研究」与「价值建模」,模拟AI可能的错误行为并测试其行为逻辑的「风险分析」。当前「AI对齐」的主流趋势是推动「基于人类反馈的强化学习」(Reinforcement Learning from Human Feedback, RLHF)以及规范AI自我训练和自我评估的「宪法AI」(Constitutional AI)。推动这项工作的机构包括Alignment Research Center(ARC)、MIRI(Machine Intelligence Research Institute),但截至目前,这些方法仍无法完全解决深层次的风险,例如模型在非预期情境下的行为泛化、目标扭曲、或策略性操控监管机制等等。
四,建构「人道AI」的未来
未来世纪,必须转向「人道AI」(Humane AI)的发展,从伦理、技术与制度三个轴面进行「AI整治」(AI governance)。这其中的关键议题包括:AI 系统应当成为人类的工具,还是合乎伦理的行动者?人类的价值是否能被形式化、可计算?技术是否中立?权力如何分布于演算法之中?
最后,实现民主AI的终极关怀。 AI不应仅仅由菁英工程团队与企业主导,而应纳入使用者、劳工、公民社群,甚至原住民族与弱势族群的经验与意见,实现「参与式设计」(participatory design)与「价值共构」(value co-creation)。面对「AI异化世界」的来临,人们应该自觉的对抗偏见而非默许演算法效益化,强化制度而非只依赖开发者良心,培养民主素质而非交出控制权。这不仅关乎 AI能否伤害我们,更关乎AI是否增进人类共同的福祉。
宋国诚/政治大学国际关系研究中心资深研究员,中国问题与国际战略学家,《宋国诚观点》YT频道主持人、《宋国诚观点》(Blog)版主,最近著作《失速中国》
(文章仅代表作者的观点和立场 转自 镜报网2025/10/11)