当前位置: 主页 > 国内新闻 >

时间:2018-11-26 19:01来源:飞机维修砖家 作者:中国航空
曝光台 注意防骗 网曝天猫店富美金盛家居专营店坑蒙拐骗欺诈消费者

 

摘要:自动化系统在现今航空业中得到了广泛应用,然而复杂的自动化系统的引入产生了新的失误模式,使航空人因安全问题变得更加突出。受多种因素影响,操作者在与自动化系统的交互过程中并不总能达到适度的信任校准水平。非适度自动化信任和依赖引发了严重的航空安全事故。值得欣慰的是,以人为中心的自动化显示设计和训练能够将非适度自动化信任和依赖调整到适度状态。

1引言

自动化(Automation)是指可以执行原本由人来完成的一种或一系列任务的技术。自动化包括:数据/信息的选择,信息的转化,决策和行动(Parasuraman & Wickens,2008)。自动化广泛应用于航空领域,特别是在飞机驾驶舱中(Merritt,Unnerstall,Lee,& Huber,2015)。应用飞机自动化系统,可以提高燃油效率,减少机组工作负荷添加额外的功能,提高安全和可靠性,也可以提高旅客的舒适度。然而由自动化所带来的好处,并不像预期的那样容易获得。相反,自动化可能引起了新的失误模式,提高工作负荷,带来新的认知和注意以及训练需求的增加(Billings,1996)。为了减少人为失误,航空领域采用了非常多的技术,但这些技术并没有减少人为失误,而是改变了失误模式,使后果更为严重,并且延长了觉察和修复失误的时间(Dekker & Woods,2002)。

凡事皆有度。任何度的两端都存在着极限,过多或过少都会带来不利的影响。当操作者因过度信任自动化而误用自动化,或者由于不信任自动化而不使用自动化的时候,会导致事故的发生(Parasuraman & Riley,1997)。最近的统计数据表明增加的与手动控制和自动化失误相关的航空事故主要归因于非适度自动化信任(automation trust)和依赖(automation dependence)。受非适度自动化信任和依赖的影响,可能使飞机处于失控状态或者处于危险的边缘——失控(LOC),可控飞行撞地(CFIT),偏出跑道事故等(Federal Aviation Administration,2013a,b)。为促进我国航空事业持续健康安全地发展,深入理解影响自动化信任和依赖的因素以及自动化信任和依赖所产生的影响是十分必要的,而更有意义的是如何将这种非适度自动化信任和依赖调整到适度的状态。

2 自动化信任与依赖的内涵

首先,对自动化信任和自动化依赖进行区分是必要的。信任经常被定义为关于结果的期待或者是某人对某些未来事件发生所持有的主观概率(Rempel,Holmes,& Zanna,1985)。信任对于理解人-自动化交互是一个重要的概念(Lee & Moray,1992)和心理现象。自动化信任也是指用户的一种认知或情感状态,它可以通过主观评分来测量(Singh,Molloy,& Parasuraman,1993)。而自动化依赖是一种行为反应(Meyer,2001),能够通过用户与自动化的互动来测量(Lee & Moray,1992),比如用户使用自动化、遵从自动化建议或者对原始数据和自动化建议进行交叉检查的程度(Bahner,Hüper,& Manzey,2008)。

其次,自动化信任与依赖之间也相互关联:就像在人际关系中一样,尤其是在那种以不确定性为特征的环境里,信任在测定人依赖自动化系统的意愿时起了主导作用。一般来说,人们倾向于依赖他们所信任的自动化,拒绝他们不信任的自动化。例如,不需要反复核对从ATM机取出的钱数,因为它从没有出现过差错。然而,行为反应不需要与自动化信任完全一致(Parasuraman & Riley,1997),当经历过一次银行卡被ATM机“吞掉”后,下次使用会变得“小心翼翼”。有时我们可能被迫去依赖自动化,但不会完全信任它;有时我们也可能会完全信任自动化,但不完全依赖它,例如,手动执行任务所带来的体验与自动化相比会更刺激,让用户更兴奋。

3 自动化信任和依赖的心理机制

很多变量以相同的方式影响着自动化信任与依赖,研究人员已经在不同的实验范式中使用各种不同的自动化系统来研究这一问题。这些变量大都源自于操作者、环境和自动化系统,与此相对应,Marsh和Dibben(2003)将自动化信任分为三个类别(倾向性信任,情景信任和习得信任)。倾向性信任(dispositional trust)是指操作者信任自动化的持续倾向性,操作者的文化背景、年龄、性别和人格特质都会影响这种倾向性。Huerta,Glandon和Petrides(2012)研究发现与美国人相比,墨西哥人更相信自动化决策辅助而很少相信手动决策辅助。情景信任(situational trust)是指信任依赖于特殊的环境背景,影响这一类型信任的因素可以分为外部变量(系统类型、系统复杂性、任务难度、工作负荷、自动化可靠性、组织环境、任务框架等)和内部变量(自信、情绪、注意力等)。Perkins,Miller,Hashemi和Burns(2010)发现当情景风险持续升高时,实验参与者很少相信和使用GPS路线导航规划设备;也有研究揭示,体验到积极情绪的实验参与者对自动化辅助决策系统有更高水平的最初信任(initial trust)(Stokes et al.,2010)。习得信任(learned trust)是指信任基于与过去某一自动化系统有关的经验,先前的经验包括态度、期望、自动化系统的声誉和对系统的理解。很多研究已经表明当自动化系统被描述成声誉好的或者“专家”系统时,人们更倾向于信任自动化(de Vries & Midden,2008; Spain & Madhavan,2009)。Hoff和Bashir(2015)针对上述模型做了改进,他们认为习得信任可以具体分为两种情况:一种是在人-自动化交互之前的最初习得(initial learned),另一种是在交互过程中的动态习得(dynamic interaction)。最初习得是基于先前的经验,而动态习得则是在人与自动化系统的交互过程中形成的信任和依赖状态。最后形成了如图1所示的影响自动化信任和依赖因素的全模型。

然而在所有这些变量中,最重要的变量当属自动化可靠性(automation reliability)。除了特别简单的系统外,对于任何自动化系统来说,完全的可靠几乎是不可能的。这就意味着操作者存在不信任自动化系统的可能性。不论影响这种可靠性的来源是什么,自动化信任或依赖和可靠性之间的关系可用校正曲线(calibration curve)来说明(Wickens,Hollands,Banbury,& Parasuraman,2012)。如图2所示X轴为可靠性(可以数字化表示为在0~1.0的任意数,由自动化误差数除以机会误差数);Y轴是信任或依赖,信任可以通过最小值-最大值主观量表评估得到,依赖则通过对自动化使用次数的比例的客观测量来加以量化。对角线代表一条完美的校准线。显然,这条线将空间分为两个区域:左上角的过度信任和右下角的信任不足。在一般情况下,操作人员所操作的自动化系统都有较高的可靠性,它可能试运行了很多次都没有出现故障,在此期间,操作人员就对该自动化系统建立起信任并产生依赖,也就是到达了图2的左上角区的自满水平。然后,故障出现了,也就是首次失败(first failure effect)。首次失败在研究人-自动化互动中具有重要意义(Rovira,McGarry,& Parasuraman,2007)。操作人员对首次失败的反应(或不响应)往往是动态的(Yeh,Merlo,Wickens,& Brandenburg,2003),并且它是许多自动化事故的典型代表,例如飞机自动化的首次失败经历(Dornheim,2000)。在首次失败后,操作者的主观信任通常会越过图2中的校正曲线到达最右下方,表现出极大的不信任。而后,随着时间的推移,信任和依赖将逐步恢复,在较大的可靠性范围内逼近校正线(Yeh et al.,2003)。接下来我们将分析在航空领域中操作者过度的信任校准(非适度自动化信任和依赖)所导致的严重后果及其解决方案。
 
中国航空网 www.aero.cn
航空翻译 www.aviation.cn
本文链接地址:自动化信任和依赖对航空安全的危害及其改进