撰文 / 伏芳香、齐云龙

设计 / 琚 佳

当今的汽车圈,上半场电动化下半场智能化,已经成为行业共识,智驾炙手可热。2025年第一季度,各厂商扎堆发布智驾技术和产品,信心十足,仿佛智驾技术突然爆发式地到了next level——实际上良莠不齐。而宣传中对L2、L3、L4这些智驾定级的模糊化,尤其是“0接管”这样的描述,会导致消费者对智能驾驶的实际情况盲目信任,一些“胆大”的用户直接从方向盘上解放了双手,无人驾驶。直到出现了小米SU7三位女孩殒命等惨剧,这才让人们对智驾有了更多反思。



既然这里面起关键作用的是人类决策,那我们有必要对人的心理机制有更多清晰的认识,以避免或者至少减少此类惨剧的再次发生。

为什么智驾出事的司机,那么盲目相信技术?开启智驾后,人们的接管速度还会那么快吗?车载智驾真的已经做到“更像人”、“如老司机般”的程度了吗?为什么出事后,舆情会呈现一边倒的状况?这背后,涉及哪些心理学原理和机制呢,这里给大家一一解读。



幸存者偏差,实验室里的“安全神话”

幸存者偏差(Survivorship Bias)是指人们往往只关注成功案例而忽视失败案例的逻辑谬误。这种认知陷阱,在智驾领域正在制造危险的"安全神话"。车企公布的实验室数据如同经过精心筛选的幸存者样本:那些完美触发AEB(自动紧急制动)的测试场景,掩盖了真实道路环境中诸如锥形桶、侧翻车辆等非标准障碍物的“小概率”致命风险。

幸存者偏差研究的历史可以追溯到二战期间。当时美军战机在空战中损失惨重,为了提高飞机的防御能力,统计了作战飞机的受损情况。他们发现,返航飞机各个损伤部位被击中的弹孔数不同,发动机部位的弹孔数最少,而机身和机翼的弹孔较多,得出的结论是应该在这些弹孔最密集的部位加上装甲。然而,统计学家Abraham Wald提出了不同见解,他认为应该加强机尾的防护。因为他研究后发现,机身和机翼中弹但飞机仍能返航,说明这些部位即使被击中,飞机仍然能够继续飞行;而那些机尾被击中的飞机,根本就没有返航的机会,因此我们看不到它们的数据。就像二战期间美军打算强化机身和机翼防护的决策,智驾系统对极端工况的防护恰恰被"幸存者数据"所忽视。



小米SU7事故中,97km/h的撞击速度远远超过C-NCAP测试标准的64km/h(50%正碰)和55km/h(100%正碰),系统失效的悲剧印证了实验室数据与现实场景的鸿沟。用户往往被车企公布的实验室数据说服,却忽略真实场景中极端工况的不可控性。再者,这种偏差不仅存在于技术测试,更渗透在消费者认知中——我们在短视频平台经常会看到智驾系统轻松完成环岛行驶等演示,而那些因系统失效导致的事故视频却很少被推送到首页。



自动化信任与过度依赖

要了解人们为什么会依赖技术,我们首先我们有必要清晰“自动化”、“信任”和“自动化信任”这三个概念的心理学解释。“自动化”(Automation)是指可以执行原本由人来完成的一种或一系列任务的技术,包括数据和信息的选择,信息的转化,决策和行动(Parasuraman&Wickens,2008)。“信任”是关于结果的期待或者是某人对某些未来事件发生所持有的主观概率(Rempel,Holmes,&Zanna,1985)。“自动化信任”(Automation Trust)是指用户的一种认知或情感状态 (Singh, Molloy,& Parasuraman,1993)。

在自动化的可靠性很高但又不完全可靠的情况下,就会出现所谓的自动化依赖的过度信任现象。这会改变大脑神经递质平衡,让人进入心理松懈状态,表现为警觉性下降、反应速度减慢。神经科学研究表明,这相当于注意力资源从"主动控制"转向"被动监控",此时,当罕见的、意想不到的自动化故障发生时,操作员将很难检测到。

长期依赖智驾等自动化系统,还会使人的技能熟练度下降,使人更难应对出现的问题。即便是专业飞行员也难逃此劫,比如2009年法国航班坠毁于大西洋,其中重要的原因之一正是由于飞行员过度使用自动飞行系统,丧失了处理失速的技能。



错误的心智模型与控制幻觉

“心智模型”指的是使用者关于系统如何工作的认识,如果使用者拥有关于自动化系统如何工作的更多更好的知识,那么更有可能达到对自动化系统的合理使用。而如果人对系统运行的心智模型是错误的,可能会产生控制幻觉(Illusion of Control),既高估自身对事件的控制能力,同时低估运气或不可控因素的作用。如在驾驶场景中,驾驶者会错误地认为哪怕自己遇到接管情景,也能够进行有效应对。

实际上,由于系统发生问题时即使发出预警,人也需要足够的时间来进行反应。比如一款智能驾驶汽车在封闭高速上表现稳定,但当遭遇道路施工等非常规场景时,系统突然将控制权交还的瞬间,使得驾驶员来不及获取情景意识而导致出现致命时刻。

获取情境意识时间需求:

7s只能基本感知路面上车辆的数量

12s时才能改善对车辆相对距离判断错误

20s时对车辆相对速度的感知仍然有提升的空间

实际操作时刻表:



Lu Z, Coster X, De Winter J. How much time do drivers need to obtain situation awareness? A laboratory-based study of automated driving[J]. Applied ergonomics, 2017, 60: 293-304

有证据表明提供自动化的可靠性信息,可以帮助用户校准他们对系统的信任和依赖。要做到这些,必须要让系统的使用者在实际使用自动化前进行训练或练习,让他们体验到“系统首次失败”,但仅仅告知自动化使用者发生故障远不及实际体验该故障有效,所以最好的训练方式不是看视频,而是使用驾驶模拟器。



道德推脱,责任转嫁的心理剧场

Bandura的道德推脱(Moral Disengagement)理论在智驾事故中上演着现代版"责任罗生门"。事故后,部分驾驶者通过"责任转移"机制,将责任归咎于车企(如“系统未及时制动”),通过转移责任来缓解自身过错带来的道德压力,以寻求内心的自洽,这是典型的自我合理化防御机制。

这种心理防御机制在一些智驾事故,及近期车主开着智驾睡觉超速行驶100公里被交警扣6分的案例中尤为典型:当车主双手脱离方向盘时,他们的潜意识已将道德责任转嫁给算法。这种心理剧场具有自我强化的特性:社交平台上"系统失灵"的叙事模板被反复传播,形成集体记忆偏差。就像金融市场的羊群效应,当足够多的事故被归因于技术缺陷时,真正的认知盲区——人类决策者的注意力塌陷,反而被彻底忽视。

总之,以上偏差共同构成“技术崇拜综合征”,在智能驾驶场景中,表现为人类因过度信任技术而产生认知盲区,最终导致悲剧。



破解"技术崇拜综合征"的关键所在

要打破这一系统性认知陷阱,需充分意识到“自动化嘲讽”效应长期存在的现状、建立正确心智模型以促进合理信任,以及充分尊重驾驶心理的生态化系统设计等多方面的科学心理建构。



自动化的嘲讽:因为系统具备自主运行能力,所以我们会把原来应该由人做的事情交给它来完成。但交出我们自身工作的时候,我们就对它的运行过程丧失了更多的觉察。长此以往,我们的能力还会下降。但这个系统本身却并不是完美的,还需要我们接管它无法解决的事情。这种悖论,在工程心理学领域,被成为“自动化的嘲讽”效应。这实际上将在我们与人工智能交互的过程中长期存在,每个人都应该充分意识到它的存在。

建立正确心智模型以促进合理信任:在新车使用和驾驶培训时,通过有效展示车辆可能需要接管的情景,能够有效构建合理的心智模型,避免人的过度信任。

充分尊重驾驶心理的生态化系统设计:除了法规和教育培训之外,还需要更加从人出发来设计智驾系统。比如,当系统出现问题的时候,工程心理学家会通过研究告知内容、表达形式、模态匹配、时机搭配等角度来协助开发出有效的告警方式,在出现需要接管的时候,快速提高使用者的警觉性,让他们很快知道环境里正在发生什么事情,人们应该如何处置等等。现在的研究者还开始从另一个角度入手,想方设法让人哪怕在使用自动驾驶时,也能够以一种轻松的方式保持对路面的注意力。

在这场人与机器的决策博弈中,真正的智能驾驶不应是"技术崇拜的祭坛",而应该是理性认知的延伸。要破解这一困境,既要完善监管,限制误导性宣传,推动技术透明化,还要大力开展心理学科普和教育,让车主对自身的反应机制和心理机制有更清晰明确的认识;更要充分尊重人为因素的设计,尤其是在需要接管时。当驾驶者既能理解算法的局限,又能保持人类特有的情境感知优势,做出更明智的决策时,"智驾事故"才会从社会议题回归技术议题。

ad1 webp
ad2 webp
ad1 webp
ad2 webp