

在人工智能日益逼近甚至超越人类智力的今天,我们经常听到一种声音:"AI再强也只是算法,它没有人类的直觉,没有饱含温度的体感,更没有那种置身于复杂环境中的'悟性'。"这种论调听起来令人宽慰,仿佛只要守住这些所谓的"人类特色",我们就能在算法面前保有一份天然的优越感和尊严。但这里隐藏着一个尚未被认真追问过的等式和人类中心论谬误:人类特点 =人类优点这个等式看起来理所当然,却经不起推敲。人类的直觉、共情、具身感知,究竟是"优点",还是只是在某种特定环境下曾经有效的"适应策略"?这两者之间,有着根本性的差别。
进化生物学和演化心理学早就告诉我们:自然选择塑造的机制,是"适应过去环境的解",而不是"永恒最优解"。生活在深海的鱼,进化出了感知水压变化的精妙器官——但把它放到陆地上,这个器官不仅没用,反而是累赘。人类的许多"特色能力",本质上也是这个逻辑的产物:它们是在资源匮乏、信息有限、威胁具体可见的远古环境里被反复筛选出来的解决方案。当环境发生了根本性改变——比如,我们现在所处的这个高度操控化的信息环境、抽象化的风险结构、算法密布的认知战场——这些机制的有效性就需要被重新审视。
指出这个常见的认知谬误,目的不是贬低人性,也不是崇拜技术。而是要做一件更细致的工作:把每一种"人类特色"放在不同的结构性环境中检验,看清楚它在什么条件下是优势,在什么条件下是漏洞。只有完成这种拆解,我们才能真正谈论人类在AI时代的出路。
延伸阅读:
全民“养龙虾”时代,我们为什么写作?
徐贲:AI 时代,“自由选择”如何成为真正的重负?
社交媒体时代的自重:在尊严与自尊之间
当人工智能学会说谎
AI如何改写人类的战争伦理?

撰文|徐贲

什么是“优秀”?
优秀这个词,在中文里听起来朴素,却承载着深刻的内涵。它源自拉丁语“excellere”,原意是“高出、突出、超越”,最初描述的是某样事物在高度、品质或表现上明显胜过同类。在古希腊哲学传统中,与之相近的概念是“aretē”(美德或卓越),亚里士多德用它指称一种通过习惯和实践达到的“卓越状态”,既包括技艺上的精湛,也包括道德与理智上的平衡。
到了现代,“优秀”不再是单一的绝对标准,而变成了一种高度情境化的评价:它取决于我们置身于什么环境、追求什么目标,以及用什么尺度去衡量。真正理解优秀,首先要打破一个常见的误区,那就是把“人类特色”自动等同于“人类优点”。正如进化生物学所揭示的,人类许多认知和情感机制——直觉、共情、具身感知、即时奖赏偏好——都是在远古资源稀缺、信息有限的环境中被自然选择塑造出来的适应策略。它们在当时确实提升了生存和繁殖的概率,因而显得“优秀”;但当环境发生结构性改变,比如进入信息爆炸、算法操控、风险抽象化的AI时代,这些曾经的适应策略就可能从优势变成盲点或漏洞。
优秀从来不是脱离环境的永恒标签,而是在特定条件下帮助个体或系统更好地达成目标、适应挑战、实现可持续价值的相对能力。那么,衡量优秀的标准究竟是什么?它本质上围绕着“适应性”与“功能有效性”展开。在生物进化层面,优秀意味着更高的包容性适应度,即在给定环境中增加生存、繁殖和后代成功的机会。一只深海鱼的压力感知器官在海底是卓越的生存工具,放到陆地上却成了累赘;人类偏好即时奖励的时间折扣机制,在远古时代有助于抓住稍纵即逝的资源,在今天却容易被短视频、点赞和限时促销所劫持,损害长期积累的能力。由此可见,同一个特质在不同环境中,可能从优点滑向中性甚至劣势。
在实际生活与认知实践中,优秀的标准进一步体现为能否有效解决问题和达成目标。在高质量反馈的环境里,专家直觉是一种高效的模式识别能力,能让棋手、消防员或资深医生在瞬间做出可靠判断,这时直觉就是突出的优点;但在高操控的信息环境中,直觉却常常成为算法精准利用的认知接口,超市定价策略或推荐系统正是利用了人们“贵的就是好”的快捷思维。
电影《银翼杀手2049》剧照。
同样,共情作为人类文明的道德基础,在面对具体、真实的他人痛苦时,能激发合作与关怀,是文明得以延续的宝贵动力;然而在媒介化场景中,共情却容易遵循“距离法则”和“具体化法则”,被直播带货或网络舆论所编排,转化为消费冲动或集体非理性行动。这时,优秀不再是单纯的情感强度,而是能否在情感提供动力的同时,让理性承担方向盘的作用,避免情绪绕过事实验证直接驱动行为。
AI时代尤其凸显了优秀标准的动态性。人类曾经引以为傲的具身感知,在处理感官尺度内的即时体验时依然可靠,但在捕捉十年后的结构性风险或跨地域系统性变化时,却暴露出天然的时空局限。优秀的应对方式,不是死守这些生物学遗产,而是承认自身的有限理性,并主动借助外部认知工具来弥补。AI擅长规模计算、去偏分析和跨时间整合,人类则在价值判断、情境理解和意义赋予上仍有独特作用。真正的优秀,体现在构建人机协同系统上:人类提供道德锚点和人文关怀,AI辅助处理海量数据与模式识别,再通过持续的校验与反思机制,将两者有机结合。这种组合不是简单的人类 vs AI,而是如何让整体认知系统在当前环境中表现得更有效、更可持续。
此外,优秀还包含更高阶的认知美德,例如心灵开放、谦逊、好奇、公正与持之以恒。这些品质并非天生,而是通过训练和共同体规范养成,帮助我们对抗天生的确认偏见和自我美化倾向。在科学研究、领导决策或个人成长中,拥有这些美德的人,往往比单纯“聪明”或“情感丰富”的人更能接近真理、做出明智选择。古希腊人称之为“phronesis”(明智),它超越了单纯的技艺或理论智慧,强调在具体情境中平衡长远后果、道德考量与实践审慎的能力。在注意力经济持续侵蚀长期主义基础的今天,这种跨越时间的深度积累和延迟满足能力,反而成了稀缺而珍贵的优秀品质。
归根结底,如我在《人类还有希望吗:AI时代的人文启蒙》一书里反复强调的,优秀的最高标准不应该是人类中心论的“有人类特色就是好的”,而是应该着重在人类批判性的自我认识。我在书里讨论的所有“人类特征能力”——具身、直觉、好奇、想象、创造、实用智慧、情感、共情、计谋、心机、游戏、闲暇——没有一样是可以直接转化为人类优点,因此可以无条件成为AI时代学校人文教育专项的。
《人类还有希望吗?人工智能时代的人文启蒙和教育》
作者:徐贲
版本:上海三联书店
2025年5月
一个人或一个系统,如果能清醒地看到自身认知机制的环境依赖性,不再用“这是我的人类特色”来为局限辩护,而是主动建立验证机制、补充外部工具、保护长期专注的空间,那么他就已经站在了优秀的起点。这种认识不是自贬,而是人文主义在AI时代的深化:它让我们不再无条件礼赞本能,而是以清醒的态度去追求更完整的认知、更有韧性的适应,以及更有意义的生命状态。优秀从来不是静态的标签,而是持续的、情境化的超越过程——在不断变化的环境中,学会与工具协同,学会弥补自身的边界,最终在复杂世界中找到属于人类的独特生路。
认知近视:
具身感知的双重性
人类必须通过肉身去感知世界。这种"具身性"让我们对一碗热汤的温度、一次握手的力度、一个房间里微妙的气氛有着AI目前无法复制的深刻体会。在人类的绝大多数历史时间里,这种能力是极其宝贵的:它让我们能够即时读取环境信号,做出快速判断,建立基于真实体验的知识积累。一个有经验的老农,光是闻一下泥土的气味,就能判断今年的墒情;一个有阅历的医生,光是看一眼病人走路的姿态,就能猜出大概的症结所在。这种具身智慧是真实的,是有价值的,AI在短期内无法真正取代它。
依据梅洛-庞蒂(Maurice Merleau-Ponty)的论述,身体不是一个被“意识”所驱动的客体(机器),而是“世界的基础”。当我们将工具(如钢琴、盲人的手杖)使用到熟练程度时,工具会发生“意向性吸收”,成为身体的一部分。
具身性的另一个向度是环境体会(Environmental Realization),它更多地指向海德格尔所说的“境遇性”(Situationality)或吉布森(James Gibson)的“可供性”(Affordances)。环境不是一组死板的坐标数据,而是一系列“行动的可能性”。
非客体化的世界:我们在“体会”环境时,并没有将其视作一个几何空间,而是一个充满了阻力、机遇和召唤的场域。椅子在“呼唤”被坐,门把手在“诱导”被转动。这种对环境的读取,是人类在演化中刻入基因的“生存语境”。人与环境之间形成了一种协同建构:环境不仅是容器,还是认知的延伸。人类通过改变环境(如书写笔记、工具制造)来减轻认知负担,这种“外挂式”的思维方式,证明了人类思维始终与环境保持着紧密的耦合。
然而,具身感知有一个内在的、不可克服的物理约束:我们的感官被锁定在极其狭窄的时空尺度内。我们能感知到今天、这个房间、这个身体的状态,但我们无法直接感知到十年后的结构性风险,无法感知到几千公里外正在发生的系统性变化,也无法感知到算法在无数个数据节点上悄悄完成的聚合操作。
你是一个在大城市工作的年轻人,每天挤地铁,周末和朋友聚餐,偶尔网购,生活虽然辛苦但大体可控。你的"亲身感受"是:物价还好,公司还在发工资,世界看起来和平且稳定。但与此同时,宏观数据在说:同龄人的平均储蓄在下滑,某些行业的薪资天花板已经悄悄降低了两三成,AI对白领岗位的替代正在从边缘向核心加速渗透。你感觉不到这些,因为你的具身系统无法将"结构性趋势"转化为可以感知的信号。你的神经系统告诉你的,只是今天这顿饭的味道——而不是三年后你所在职位的消失概率。
电影《银翼杀手2049》剧照。
这不是懒惰,这是人类神经系统的设计约束。我们的大脑是为应对即时的、可感知的威胁而塑造的,对缓慢的、抽象的、数据呈现的危机,天然地缺乏预警机制。
问题不在于具身感知本身,而在于:当我们把"亲身经历"的权威性过度外推到它的感知范围之外时,它就从保护变成了遮蔽。一个从未经历过经济衰退的年轻人,面对经济下行的警告会本能地抵触:"那是老一代人的故事。"这种抵触不是无知,而是具身记忆的缺席。但AI不依赖个人经历,它可以同时整合1929年大萧条、2008年金融危机和当下全部数据的逻辑关联,没有任何情感折扣地给出风险评估。
因此,具身感知的双重性可以总结为:在信息真实、尺度可及的环境中,它是可靠的判断基础;但在信息被操控、风险跨越感官尺度的环境中,它很可能成为系统性盲点。
直觉陷阱:
快速决策优势的环境依赖性
我们常常称颂直觉,认为那是人类超越逻辑的"灵光一闪"。这并非完全是自我美化。认知心理学家丹尼尔·卡尼曼在他的研究中指出,人类的"系统一"(快速、直觉性的思维)并不总是偏见的来源——在特定条件下,它是人类应对复杂环境的高效工具。国际象棋大师在看到棋局的一瞬间就能感知到威胁,经验丰富的消防员能在没有时间分析的情况下感知到建筑结构的危险,有经验的护士能在病历显示正常的情况下凭直觉察觉病人状态的恶化。这些"专家直觉"是真实有效的,背后是大量经验在神经回路中形成的高效模式识别。
直觉是有价值的——但它的价值是有条件的。丹尼尔·卡尼曼(Daniel Kahneman)在《思考,快与慢》(Thinking, Fast and Slow)中指出:专家直觉之所以可靠,是因为它是在“高质量反馈环境”中被长期校正的。棋手下错棋,棋局会立即告诉他错了;医生误判,病人的反应会提供反馈。在这种反馈修正的环境下,具身体验和环境体会能够转化为精准的模式识别。但当反馈环境消失,或者反馈被人为扭曲时(例如在充满操纵性的算法推荐中),直觉就会变成一把对准自己的武器。
AI时代的危险在于,它利用算法制造了一个“低质量、高诱导”的伪反馈环境。当你刷到一段让你感到“直觉上很对”的短视频并点赞时,算法并没有给你逻辑上的正误反馈,而是给了你情感上的即时奖赏。这种反馈不仅没有校正你的认知,反而固化了你的偏见。在缺乏严苛物理反馈的数字空间里,我们原本用于生存的直觉,正逐渐退化为一种被算法精准喂养的“条件反射”。这正是为什么我们不能无条件美化直觉,而必须强调在AI时代建立“反直觉”的理性复核机制。
操控信息环境中的直觉失效是一个严重的问题。打开任何一个短视频平台,你会感觉自己在"自主选择"内容——刷到喜欢的停一停,不喜欢的划走,这不正是你的直觉在工作吗?但这个判断忽略了一个关键事实:你的每一次停顿、每一次划走、每一次点赞,都在给算法提供训练数据,而算法用这些数据构建的模型,反过来决定了你"下一条将会看到什么"。你的直觉并没有在自由地筛选世界,它在一个被精心设计的反馈回路里,越来越精确地被建模,然后被镜像回来。
电影《银翼杀手2049》剧照。
更精妙的是,这个过程制造了一种"自主感"的幻觉。你觉得"我就是喜欢这类内容",但你没有意识到的是:你喜欢这类内容的程度,已经被算法通过几个月的迭代投喂,悄悄放大了。这就像给一盆植物持续施用某种生长激素,然后说"你看,这株植物天生就往这个方向长"。
超市里的价格陷阱是一个更日常的例子。你看到一瓶68元的橄榄油,旁边有一瓶128元的。你没时间研究成分,直觉告诉你:贵的更好。这条逻辑在人类历史的大多数情境里是合理的,所以大脑把它编码成了默认快捷键。但超市的定价策略早就摸透了这条逻辑:那瓶128元的,可能只是同一工厂的同款产品,加了一个进口包装和一段模糊的营销文案。你的直觉不仅没有保护你,反而被设计者当成了精准的收割入口。
因此,直觉的双重性在于:在不确定、低信息密度、有真实反馈的环境中,它可能是快速决策的宝贵优势;但是,在高操控、信息失真、反馈被设计的环境中,人的直觉可能成为被系统性利用的认知接口。
这里有一个重要的区分需要说清楚:AI没有偏见吗?当然不是。 算法推荐系统本身就内嵌了大量偏见——它偏向于让你停留更长时间,而不是让你得到更准确的信息;它偏向于强化你已有的倾向,而不是拓宽你的认知边界。但人类偏见和算法偏见有一个根本差异:人类偏见是内生且对自身不可见的,而算法偏见在原则上是可以被分析、被识别、被修正的。你无法轻易"审计"你自己的直觉,但工程师可以审计算法的推荐逻辑。这不是说AI更客观,而是说:人类对自身偏见的盲目性,才是更难被攻克的问题。
情感共振:
道德起点与可编排的情绪资源
人类能够通过身体的共振去感受他人的痛苦与快乐。这种共情能力不是软弱,不是非理性的多余,它是人类能够建立合作社会的根本基础。没有共情,就没有道德;没有道德,就没有超越直接血缘的社会契约;没有社会契约,就没有文明。研究者Frans de Waal花了几十年研究灵长类动物的共情行为,他的结论是:道德不是文明强加给人类本能的外衣,而是从我们的社会性本能中自然生长出来的。从这个意义上说,共情不仅是人类特色,更是人类文明存在的前提条件之一。
AI没有真正的共情。它可以识别情绪信号,可以生成看起来充满关怀的文字,但这背后没有任何主观体验。如果我们把共情从人类社会中抽走,剩下的东西会是冷漠、残酷和无法持续的工具性关系。所以,任何关于人类共情"是弱点"的论断,都需要被非常小心地处理。
《摆脱共情》
作者: [加]保罗·布卢姆
译者:徐卓人
版本: 浙江人民出版社·湛庐文化
2019年12月
然而,共情有一个几乎不可克服的内在约束,心理学家保罗·布卢姆(Paul Bloom)在他的著作《反对共情》(Against Empathy)中给出了精准的诊断:共情遵循“距离法则”和“具体化法则”。感知是有局限的: 我们更容易对眼前的、具体的、和自己相似的个体产生共情。这种具身的、生理性的情感反应在原始部落社会是合作的黏合剂。然而,面对抽象的、遥远的、大规模的苦难(如数据统计中的贫困、系统性的不公或长期的生态危机),我们的生物性共情几乎是麻木的。
这个规律在日常生活里极其明显。你的同事今天扭了脚踝,走路一瘸一拐,你会皱眉,表达关心,甚至帮他跑一趟腿。但今天新闻上说某个地区因干旱导致数万人陷入粮食危机,你可能只是轻叹一口气,划走继续看下一条。这不是因为你是坏人,而是因为你同事的痛苦可以直接激活你大脑里的镜像神经元,而那数万人的苦难,对你的神经系统而言只是两个抽象数字的组合。
这种共情的结构性偏差,在今天的媒介环境中被以两种截然相反的方式利用。
第一种利用:制造虚假的亲近感。 直播间里哭泣的主播,是对人类共情机制最赤裸的商业化。一个带货主播声泪俱下,讲述自己多年的艰辛创业,今天就是为了让粉丝享受到实惠……你的身体会产生真实的情感反应,会涌起一种"我应该支持他"的冲动。但这种共情,和你同情扭了脚踝的同事,是同一套神经机制的产物。区别在于:你同事的痛是真实的,而直播间里的泪水,有相当大的概率是一种经过研究、反复演练、精心触发的表演。你的温情,在这里被当成了消费的扳机。
第二种利用:制造虚假的群体正义感。 这个方向更危险。你在微博或者微信群里看到一条关于某人"做了坏事"的帖子,下面已经有几百条愤怒的评论。你的共情系统会自动捕捉到这个群体的情绪信号,你会感受到一种融入"正义共同体"的冲动——这种感觉在生理上是真实的,甚至是愉悦的,因为它激活了大脑的社会归属回路。于是你跟着转发,留下一条义愤的评论。但你没有核实信息的真实性,没有听当事人的解释,没有思考这件事的全貌。
这就是"共情驱动的道德短路":情感系统绕过了信息验证的程序,直接触发了社会行动。你感觉自己在捍卫正义,感觉自己比那些冷漠的旁观者更有人性——但你可能只是参与了一场以"正义"为包装的集体伤害。事后即使发现信息有误,那种生理层面的"正义感"也已经消散,不会自动触发对自己行为的反思和纠正。
共情的双重性因此是:在面对具体他人、信息真实的场景中,它是道德行动的起点,是人类合作的基础;然而,在媒介化、可编排的情绪场景中则很容易成为被系统性触发的情绪资源,被商业和政治力量所调用。
美剧《黑镜》第三季剧照。
这里需要回应一个常见的反驳:"如果人人都像你说的那样理性,人类会变得冷漠,没有行动力。"这个反驳对了一半。我在此并不否定情感,而是主张要区分两件事:情感作为道德的发动机,和情感作为判断的方向盘。 情感提供动力,它告诉你"这件事我在乎",它推动你采取行动。但方向盘——"这件事的真相是什么"、"我的行动会产生什么后果"——这部分工作,情感无法单独胜任,需要理性来承担。情感是必要条件,但不是充分条件。否定未经校验的情感直接主导判断,不等于否定情感本身。
时间感知的扭曲:
注意力、奖赏机制与长期主义的崩塌
行为经济学有一个概念叫做"时间折扣"(Temporal Discounting):人类在评估未来的收益和损失时,会系统性地低估它们的权重,且距离越远,折扣越大。这不是道德问题,而是生理问题——我们的大脑对"现在"的敏感度,要远高于对"未来"的敏感度。在资源匮乏的远古环境里,这种偏向是合理的:不确定明天能不能活着,为什么要为十年后的事情放弃今天的食物?
但这个机制在现代社会制造了一种持续性的判断失真:我们对"紧迫但不重要"的事情高度过敏,对"重要但不紧迫"的事情系统性地拖延和低估。
最日常的例子:手机通知。你正在专心读一本书或者处理一项需要深度思考的工作。手机震动,屏幕亮起。你的杏仁核立刻发出"有信号来了"的警报。哪怕那条通知只是朋友圈有人发了一张午饭的照片,你的神经系统对它的反应,和对一封真正重要邮件的反应,在生理层面几乎没有区别——你的大脑不区分"朋友晒饭"和"紧急事项",它只认"有信号"这个触发条件。你拿起手机,看了照片,顺手刷了几条动态,点开了一个推荐视频……等你回过神,二十分钟已经过去了。
各大APP的产品经理对这个机制了如指掌。红色小圆点、限时折扣倒计时、"X人正在浏览这件商品"、消息未读提醒——这些设计全都在做同一件事:人工制造紧迫感,触发你的生物警报系统,让你持续处于一种"随时需要查看"的低度焦虑状态。而在这种状态下,那些真正重要但不制造紧迫感的事情——深度学习一项技能、认真规划职业方向、完整阅读一本有思想深度的书——就一次次被"有通知待查看"这件事挤到了明天,再明天,再明天。
更深层的问题是,持续的短期反馈正在物理性地改变大脑的奖赏回路。“点赞”机制是这个过程的完美案例。你发了一条朋友圈,五分钟后有人点赞,大脑分泌多巴胺。你感到一种轻微但真实的愉悦。你发现发某类内容比其他内容得到更多点赞,于是你倾向于发更多这类内容。这个过程和赌博机的奖励机制在神经科学层面是同构的——不稳定的、可变的、即时的奖励,对大脑的多巴胺系统具有最强烈的驯化效果,因为它不断触发"也许这次会有"的期待状态。
纪录片《监视资本主义:智能陷阱》剧照。
这个机制逐渐重塑了我们对"努力与回报"关系的期待。习惯了即时反馈的大脑,面对那些需要数月乃至数年才能产生回报的长期投资(比如学习一门语言、培养一项专业技能、坚持写作或锻炼),会越来越难以维持动力。不是因为这个人"不够努力",而是因为他的奖赏回路已经被训练成期待即时反馈,面对延迟满足,大脑会产生真实的生理不适。
这里有一个悖论:AI时代反而让长期主义变得更难,而长期主义恰恰是人类对抗AI的少数真实优势之一。 那些能够进行跨越数年的深度积累、在某个领域建立真正难以复制的判断力的人,是最难被AI替代的人。但注意力经济正在系统性地消耗人类维持这种长期主义所需的认知资源——专注力、延迟满足的能力、对深度不适的耐受能力。换句话说,竞争的不是你的意志力,而是一个被精心设计的系统,和你的生物本能之间的结构性博弈。仅靠意志力去对抗一个针对你神经弱点精心优化的系统,几乎必然失败。
人类对紧迫信号的生物本能,在物理世界是保命的进化红利,但在算法世界却成了被收割的认知后门,最终因注意力被持续劫持而瓦解了长期主义的根基。
不是人类VSAI:
而是“如何组合更好”
前面的分析可能会引发不同意见者的批评:"你把人类说得这么不堪,这不就是新形式的技术崇拜和技术决定论吗?"这个批评需要被认真对待,因为它指向了一个真实的风险:如果我们的分析结论是"人类认知系统全面劣于AI",或者如弗洛伊德所说,“我发现人类整体上几乎没有什么‘优点’。根据我的经验,大多数人都是垃圾,不管他们是否公开赞同这种或那种道德学说,或者根本不赞同……如果我们要谈论道德,我赞同一种崇高的理想,而我所接触到的大多数人都背离了这种理想,这是最可悲的”。那这不仅是偏激和错误的,也是危险的——它会制造一种新的虚无主义,让人觉得"反正我不如算法,那就不如自暴自弃"。
在这里,我要批评的不是笼统的人类,而是未经反思的人类自我想象。 不承认自身局限,才是最大的弱点。一个知道自己近视的人,会戴眼镜;一个知道自己在高操控信息环境中直觉容易失效的人,会主动建立验证机制。承认局限,是使用工具的前提。
经济学家、认知心理学家赫伯特·西蒙(Herbert Simon)在上世纪五十年代在《管理行为》(Administrative Behavior)(以及随后的相关研究)中提出了“有限理性”(Bounded Rationality)的概念。他指出,人的认知是有瓶颈的: 人类并非拥有上帝视角的“经济人”,我们的理性受到信息不全、计算能力有限以及时间的严格限制。为了应对这种局限,我们的大脑发展出了一套“启发式”(捷思)思维,即不追求绝对最优解,而追求“令人满意的解”。具身就有这样的局限: 这种有限性本质上是生理性的。我们的感官和脑容量注定了我们只能处理环境中的微小片段,并将这些片段通过具身的直觉和经验转化为行动。
美剧《西部世界》(第一季)剧照。
西蒙的结论并不是"人类无能",而是:人类本来就需要"外部认知工具"来弥补自身的有限性——算盘、计算器、统计学、词典、百科全书、图书馆,都是这类工具。AI只是目前最强大的一种。在这个框架下,我们可以勾勒出一个更有建设性的人机协同模型:
第一层:人类提供意义、价值判断与情境理解。 AI可以分析大量数据,但它无法告诉你什么是值得追求的、什么是不可接受的、什么在特定的人文情境中具有重要性。AI可以优化一个城市的交通流量,但"这座城市应该为谁优化、优先保障谁的出行需求"这个问题,是价值判断,不是数据问题。这是人类必须承担的工作,也是人类目前无法被替代的根本所在。
第二层:AI提供规模计算、去偏分析与跨时间整合。 AI擅长的恰恰是人类最薄弱的:处理海量数据、识别跨越感官尺度的模式、在没有情感折扣的情况下整合长时间维度的信息。把这类工作交给AI,不是放弃判断力,而是把工具用在它最有效的地方。
第三层:中间机制——校验、反思与交叉验证。 这是最关键也最容易被忽视的一层。人类的判断需要AI的数据和分析来校验;AI的输出需要人类的价值判断和情境理解来解读和使用。没有中间层,这两端都会失效:没有AI辅助的人类容易陷入上文描述的所有认知偏差;没有人类判断的AI可以以极高的效率优化出一个在技术指标上完美、但在人文意义上灾难性的结果。
这个模型的核心前提,是人类必须首先承认自身的局限性,才能有效地使用AI作为认知工具,而不是被AI作为认知对象来操控。一个不知道自己近视的人,不会主动寻找眼镜。而一旦能用上眼镜,就不要再妄称肉眼看得更加真实。
一个相信自己的直觉永远正确的人,不会主动建立任何验证机制。而一个知道自己在哪些认知维度上存在系统性弱点的人,才能有意识地构建起一套"人类判断力+AI分析能力+反思校验机制"的完整认知系统。
美剧《西部世界》(第一季)剧照。
批判性自我认识:
是新人文主义的起点
人类的具身体验、直觉、共情和时间感知,是我们作为生物体的基本属性,它们让生命变得鲜活,赋予我们意义感、连接感和行动的动力。它们在人类历史的绝大多数时间里,是真实有效的适应策略。但它们是"曾经有效的解",而不是"永恒最优解"。当我们所处的环境发生了根本性的结构性改变——当信息可以被规模化地操控,当风险跨越了感官的可及范围,当奖赏机制可以被精心设计——这些机制就需要被重新审视。
承认我们的感官是有边界的,不是否定具身体验的价值,而是认识到望远镜比肉眼更能看清某些真相。
承认我们的直觉在特定环境中是可被利用的,不是放弃判断力,而是学会在直觉之后加上一道理性的校验程序——就像有经验的飞行员不仅靠感觉驾机,也要读仪表盘。
承认我们的情感是容易被触发和编排的,不是变得冷漠,而是学会区分"情感作为动力"和"情感作为方向盘",在被情绪推动之前,给自己一个"等等,先看清楚这件事"的反射性停顿。
承认我们的时间感知是扭曲的,不是要消灭当下的享受,而是要有意识地为"重要但不紧迫"的事情建立专门的保护机制,对抗那个持续侵蚀我们长期主义能力的注意力争夺系统。
我们这个时代最危险的不是AI变得更聪明,而是人类在AI面前,用"这是我独特的人性"来为自己的认知懒惰辩护。 真正的人文精神,从来不是对人类本能的无条件礼赞,而是在清醒地认识自身局限的基础上,依然选择去思考、去质疑、去构建更完整的认知系统。
批判性的自我认识,不是人性的对立面,而是人性中最难能可贵的一部分。它是我们与其他动物真正拉开距离的地方,也是我们在算法编织的迷宫中,找到那条真正属于人类智慧的生路的唯一起点。不幸的是,有没有这种认知,正在把人类前所未有地分裂为两个几乎不同的物种。人类真正的尊严不是死守生物学遗产,而是有勇气承认自己的认知系统有系统性漏洞,然后主动去补洞、去升级接口。这才是新人文主义应有的姿态——不是对“人性”的无条件礼赞,而是对“更好的认知”的持续追求。
本文为独家原创文章。作者:徐贲;编辑:刘亚光;校对:杨许丽。未经新京报书面授权不得转载配资公司选配资配资,欢迎转发至朋友圈。
易云达官网提示:文章来自网络,不代表本站观点。