泌阳| 北安| 无锡| 横峰| 柳河| 镇雄| 平度| 大宁| 龙陵| 常山| 南海镇| 张家港| 云梦| 沙湾| 东兴| 宿松| 金门| 勉县| 西峰| 盂县| 定远| 巢湖| 武穴| 双峰| 花垣| 策勒| 新宾| 衡水| 平顶山| 罗江| 连江| 巴里坤| 琼中| 恩施| 彭水| 维西| 镇赉| 德化| 景德镇| 湟源| 鞍山| 坊子| 都匀| 新沂| 九龙| 望江| 郁南| 紫云| 阿拉善右旗| 察雅| 隆德| 宣威| 明溪| 昌邑| 濠江| 乳山| 柳城| 蕲春| 三门| 皋兰| 田东| 洛川| 渭南| 宿豫| 嵩明| 三台| 广河| 宣威| 金平| 铜川| 青田| 康乐| 和田| 镇远| 苍山| 中宁| 叶城| 射阳| 斗门| 琼海| 政和| 泌阳| 海伦| 梁子湖| 衡阳县| 公主岭| 琼结| 遵化| 南浔| 永州| 开县| 临猗| 桦川| 达州| 中山| 牟定| 元江| 汉川| 南宁| 宁德| 曲阳| 孟村| 红原| 新洲| 景县| 望江| 长寿| 焦作| 石河子| 兰州| 介休| 黑水| 海盐| 丹徒| 嵩县| 北安| 丰宁| 罗山| 宁县| 齐河| 交口| 淄博| 隰县| 大渡口| 定南| 临沂| 泰顺| 乌拉特前旗| 黑龙江| 乌苏| 沙湾| 科尔沁左翼后旗| 四川| 潮安| 务川| 德州| 喀喇沁左翼| 南漳| 滦平| 番禺| 独山| 汶上| 孟村| 尉氏| 察哈尔右翼中旗| 营山| 新蔡| 乌拉特中旗| 阎良| 略阳| 正蓝旗| 扬州| 分宜| 淮南| 获嘉| 桓仁| 长汀| 镶黄旗| 巴楚| 墨脱| 扎赉特旗| 长顺| 廉江| 南木林| 辰溪| 沿滩| 景泰| 布拖| 平塘| 瓦房店| 启东| 托克逊| 麻阳| 乌兰| 温泉| 磐安| 红岗| 霸州| 湘东| 黄陂| 辽阳县| 玉山| 阿图什| 宁都| 喀喇沁左翼| 固原| 四方台| 台南市| 湄潭| 隰县| 承德市| 水城| 师宗| 嵊州| 临夏县| 灌阳| 新化| 古浪| 那曲| 五营| 荥经| 郧县| 巫溪| 平利| 金山屯| 漠河| 中阳| 吉林| 双鸭山| 济南| 哈尔滨| 桃江| 平乡| 合肥| 兴平| 辽阳县| 乐安| 黔江| 阳高| 武都| 通渭| 汝城| 罗城| 阿克塞| 西安| 江孜| 宁明| 浙江| 科尔沁左翼中旗| 察哈尔右翼后旗| 华蓥| 永兴| 嵊州| 珙县| 深泽| 保德| 蓬溪| 曲麻莱| 西青| 青河| 梁子湖| 金寨| 新会| 临江| 上街| 雅安| 义县| 云阳| 新化| 杭锦后旗| 上高| 衡南| 潍坊| 阿拉尔| 融水| 太原| 满洲里| 沈阳| 嘉荫| 泊头| 墨脱| 乌马河| 安达| 麻阳|

体育彩票有规律:

2018-12-13 13:59 来源:搜狐健康

  体育彩票有规律:

  ”  “大晚上的键盘敲地噼里啪啦响,还让不让人睡觉了?”  “对不起,请体谅一下写不出论文的人吧。连云港市人民检察院副检察长李翔介绍,犯罪分子采用双拖网作业方式直接从海洋底层进行捕捞,是危害最大的一种非法捕捞方式——作案网具“大小通吃”,海洋资源幼体以及饵料类生物群体均难以脱逃,因此也被称为“绝户网”。

希望对杨某蓝减轻处罚并宣告缓刑。现场合影  此外,李冰冰透露,自己近年因为学会英语获得了不少外国电影的邀约,并透露新片《巨齿鲨》即将于8月上映。

  于是,一种焦灼情绪就这样蔓延开来了,关于相亲角的挞伐之声再次响起。还有一个月的时间,我就要70岁了,但我会继续热爱足球,我还在当主教练,因为我爱这份工作。

    2018年3月19日,韩国检方在讯问李明博后,向法院申请逮捕李明博。”周立刚介绍,但值得注意的是,目前已发现并认定的东汉诸侯王墓葬中,都未发现陵园遗迹,相比之下高陵有墓园建筑的情况就显得比较特殊,这可能与曹操在东汉晚期的特殊地位有关。

除了职业道德的自我约束,如果没有专业法规政策的保驾护航,大数据时代的商业公司就容易迷失方向,依靠信息高度垄断的优势,沦为一些利益集团的附庸。

  比如:  女性长期熬夜会导致月经紊乱;  儿童长期熬夜会影响生长激素的分泌,导致一系列成长问题;  肠胃不好、有肝病的人熬夜,则会加重病情,病情严重还会反过来影响睡眠质量,导致肠胃、肝脏健康进一步恶化。

  该片不仅激起无数国人的爱国情怀,还成为首部进入全球TOP100票房影片榜的亚洲电影。业务好的,把你的弱点拎出来;业务不好的,可能就给你更加放大了。

  然而当上述情况发生时,常常近视已经发生,甚至是高度近视了。

  ”69岁的巴西老帅还进一步强调:“C罗拥有自己的品牌和产业,而中国有全球最大的市场。中国像“下饺子”一样造飞机的现象,近年来也引起了各国关注。

  他们反对相亲中对双方条件的选择,认为谈条件就是“物化”,好像纯真的爱情就是超脱世俗存在的,它只听从内心的召唤,不应在乎条件。

  被告人杨某蓝犯罪以后主动投案且如实供述自己的罪行,是自首,可以从轻或减轻处罚。

  同时也赞美了英雄们的爱情、友谊和欢宴,深刻地反映出蒙古族人民的生活理想和美学追求。当视频中的母亲拿着工具接近鲶鱼时,它却灵活地逃开了。

  

  体育彩票有规律:

 
责编:
投稿到民航资源网

自动化信任和依赖对航空安全的危害及其改进

 2018-12-13 来源:微信 作者:王新野 李苑等 飞机维修砖家  [投稿排行榜]
2018-12-13 14:05:30

我来说两句(0) 分享

  摘要:自动化系统在现今航空业中得到了广泛应用,然而复杂的自动化系统的引入产生了新的失误模式,使航空人因安全问题变得更加突出。受多种因素影响,操作者在与自动化系统的交互过程中并不总能达到适度的信任校准水平。非适度自动化信任和依赖引发了严重的航空安全事故。值得欣慰的是,以人为中心的自动化显示设计和训练能够将非适度自动化信任和依赖调整到适度状态。

  1引言

  自动化(Automation)是指可以执行原本由人来完成的一种或一系列任务的技术。自动化包括:数据/信息的选择,信息的转化,决策和行动(Parasuraman & Wickens,2008)。自动化广泛应用于航空领域,特别是在飞机驾驶舱中(Merritt,Unnerstall,Lee,& Huber,2015)。应用飞机自动化系统,可以提高燃油效率,减少机组工作负荷添加额外的功能,提高安全和可靠性,也可以提高旅客的舒适度。然而由自动化所带来的好处,并不像预期的那样容易获得。相反,自动化可能引起了新的失误模式,提高工作负荷,带来新的认知和注意以及训练需求的增加(Billings,1996)。为了减少人为失误,航空领域采用了非常多的技术,但这些技术并没有减少人为失误,而是改变了失误模式,使后果更为严重,并且延长了觉察和修复失误的时间(Dekker & Woods,2002)。

  凡事皆有度。任何度的两端都存在着极限,过多或过少都会带来不利的影响。当操作者因过度信任自动化而误用自动化,或者由于不信任自动化而不使用自动化的时候,会导致事故的发生(Parasuraman & Riley,1997)。最近的统计数据表明增加的与手动控制和自动化失误相关的航空事故主要归因于非适度自动化信任(automation trust)和依赖(automation dependence)。受非适度自动化信任和依赖的影响,可能使飞机处于失控状态或者处于危险的边缘——失控(LOC),可控飞行撞地(CFIT),偏出跑道事故等(Federal Aviation Administration,2013a,b)。为促进我国航空事业持续健康安全地发展,深入理解影响自动化信任和依赖的因素以及自动化信任和依赖所产生的影响是十分必要的,而更有意义的是如何将这种非适度自动化信任和依赖调整到适度的状态。

  2 自动化信任与依赖的内涵

  首先,对自动化信任和自动化依赖进行区分是必要的。信任经常被定义为关于结果的期待或者是某人对某些未来事件发生所持有的主观概率(Rempel,Holmes,& Zanna,1985)。信任对于理解人-自动化交互是一个重要的概念(Lee & Moray,1992)和心理现象。自动化信任也是指用户的一种认知或情感状态,它可以通过主观评分来测量(Singh,Molloy,& Parasuraman,1993)。而自动化依赖是一种行为反应(Meyer,2001),能够通过用户与自动化的互动来测量(Lee & Moray,1992),比如用户使用自动化、遵从自动化建议或者对原始数据和自动化建议进行交叉检查的程度(Bahner,Hüper,& Manzey,2008)。

  其次,自动化信任与依赖之间也相互关联:就像在人际关系中一样,尤其是在那种以不确定性为特征的环境里,信任在测定人依赖自动化系统的意愿时起了主导作用。一般来说,人们倾向于依赖他们所信任的自动化,拒绝他们不信任的自动化。例如,不需要反复核对从ATM机取出的钱数,因为它从没有出现过差错。然而,行为反应不需要与自动化信任完全一致(Parasuraman & Riley,1997),当经历过一次银行卡被ATM机“吞掉”后,下次使用会变得“小心翼翼”。有时我们可能被迫去依赖自动化,但不会完全信任它;有时我们也可能会完全信任自动化,但不完全依赖它,例如,手动执行任务所带来的体验与自动化相比会更刺激,让用户更兴奋。

  3 自动化信任和依赖的心理机制

  很多变量以相同的方式影响着自动化信任与依赖,研究人员已经在不同的实验范式中使用各种不同的自动化系统来研究这一问题。这些变量大都源自于操作者、环境和自动化系统,与此相对应,Marsh和Dibben(2003)将自动化信任分为三个类别(倾向性信任,情景信任和习得信任)。倾向性信任(dispositional trust)是指操作者信任自动化的持续倾向性,操作者的文化背景、年龄、性别和人格特质都会影响这种倾向性。Huerta,Glandon和Petrides(2012)研究发现与美国人相比,墨西哥人更相信自动化决策辅助而很少相信手动决策辅助。情景信任(situational trust)是指信任依赖于特殊的环境背景,影响这一类型信任的因素可以分为外部变量(系统类型、系统复杂性、任务难度、工作负荷、自动化可靠性、组织环境、任务框架等)和内部变量(自信、情绪、注意力等)。Perkins,Miller,Hashemi和Burns(2010)发现当情景风险持续升高时,实验参与者很少相信和使用GPS路线导航规划设备;也有研究揭示,体验到积极情绪的实验参与者对自动化辅助决策系统有更高水平的最初信任(initial trust)(Stokes et al.,2010)。习得信任(learned trust)是指信任基于与过去某一自动化系统有关的经验,先前的经验包括态度、期望、自动化系统的声誉和对系统的理解。很多研究已经表明当自动化系统被描述成声誉好的或者“专家”系统时,人们更倾向于信任自动化(de Vries & Midden,2008; Spain & Madhavan,2009)。Hoff和Bashir(2015)针对上述模型做了改进,他们认为习得信任可以具体分为两种情况:一种是在人-自动化交互之前的最初习得(initial learned),另一种是在交互过程中的动态习得(dynamic interaction)。最初习得是基于先前的经验,而动态习得则是在人与自动化系统的交互过程中形成的信任和依赖状态。最后形成了如图1所示的影响自动化信任和依赖因素的全模型。

  然而在所有这些变量中,最重要的变量当属自动化可靠性(automation reliability)。除了特别简单的系统外,对于任何自动化系统来说,完全的可靠几乎是不可能的。这就意味着操作者存在不信任自动化系统的可能性。不论影响这种可靠性的来源是什么,自动化信任或依赖和可靠性之间的关系可用校正曲线(calibration curve)来说明(Wickens,Hollands,Banbury,& Parasuraman,2012)。如图2所示X轴为可靠性(可以数字化表示为在0~1.0的任意数,由自动化误差数除以机会误差数);Y轴是信任或依赖,信任可以通过最小值-最大值主观量表评估得到,依赖则通过对自动化使用次数的比例的客观测量来加以量化。对角线代表一条完美的校准线。显然,这条线将空间分为两个区域:左上角的过度信任和右下角的信任不足。在一般情况下,操作人员所操作的自动化系统都有较高的可靠性,它可能试运行了很多次都没有出现故障,在此期间,操作人员就对该自动化系统建立起信任并产生依赖,也就是到达了图2的左上角区的自满水平。然后,故障出现了,也就是首次失败(first failure effect)。首次失败在研究人-自动化互动中具有重要意义(Rovira,McGarry,& Parasuraman,2007)。操作人员对首次失败的反应(或不响应)往往是动态的(Yeh,Merlo,Wickens,& Brandenburg,2003),并且它是许多自动化事故的典型代表,例如飞机自动化的首次失败经历(Dornheim,2000)。在首次失败后,操作者的主观信任通常会越过图2中的校正曲线到达最右下方,表现出极大的不信任。而后,随着时间的推移,信任和依赖将逐步恢复,在较大的可靠性范围内逼近校正线(Yeh et al.,2003)。接下来我们将分析在航空领域中操作者过度的信任校准(非适度自动化信任和依赖)所导致的严重后果及其解决方案。

  4 非适度自动化信任和依赖的类型及其危害

  4.1 过度信任(overtrust)

  4.1.1 自满(complacency)

  自满这一术语源自与航空业有关的事故或事件,据称在这些事故或事件当中飞行员、空中交通管制员或者其他操作员并没有进行充分的系统状态检查(疏忽性失误)。一般来说,自满伴随着这样一种假设:“一切顺利”,然而事实上却存在一个导致事故发生的危险条件(Parasuraman & Manzey,2010)。美国国家航空航天局航空安全报告系统(ASRS)将自满作为事故报告的一个编码项目(Billings,Lauber,Funkhouser,Lyman,& Huff,1976)。Wiener(1981)认为ASRS像其他研究者一样,将自满定义为“以低指数的怀疑为特征的心理状态”。Wiener提出进行相关的实证研究是十分必要的,这样可以加深理解自满的机制以加强航空安全。满足于自动化的操作员几乎不去监控自动化正在进行的工作,丧失了对自动化系统自身和周围发展状态的情景意识(Kaber,Onal,& Endsley,1999)。2009年土耳其航空公司TK1951航班坠毁。事故的主要原因是飞行员对自动化系统十分信任,以致于当飞机的高度测量仪失效后迟迟未能检测到这个故障,飞行员仍然使用飞机的自动驾驶模式,最终导致事故的发生。此外,Metzger和Parasuraman(2005)在高保真雷达管制模拟机上对经验丰富的空中交通管制员进行测试中发现:能够在自动化系统失灵的情况下检测到冲突的管制员数量显著低于在人工情况下检测到冲突的管制员数量,进一步的眼动分析还表明那些没有检测到冲突的管制员在自动化辅助情况下比在人工控制情况下,对雷达显示屏的注视次数显著减少。

  4.1.2 自动化偏见(automation bias)

  自动化偏见被定义为:“以启发式的方式替代对警觉信息的搜索和加工”(Mosier & Skitka,1996)。与自满密切相关的自动化偏见通常与在复杂环境中支持人类决策的自动化辅助决策息息相关(Mosier & Fischer,2010)。在航空领域中,不正确的决策会引起较高的经济后果,而自动化辅助决策系统就是为了提高人类的决策效率,所以自动化辅助决策系统对航空领域有特殊的价值。比如像空中防撞系统(TCAS)或者近地防撞警告系统(GPWS)这样的驾驶舱预警系统,可以提供给驾驶员具体的建议或命令(例如,“拉升!拉升!”)以避免碰撞。由于以下两点原因,辅助决策系统经常是被误用的:第一,自动化生成的线索是十分突显的,吸引了用户的注意并干扰了当前的行进任务;第二,相比于其他来源的建议,用户倾向于赋予自动化辅助系统更大的权威。

  自动化偏见导致用户可能不会对所有可用信息逐一分析,哪怕自动化系统的建议是不正确的,用户也会遵从或执行该建议,从而犯下错误(Bahner et al.,2008)。飞行结冰事件严重威胁飞行安全,必须及时处理。McGuirl和Sarter(2006)检查飞行员与自动化辅助决策系统交互的性能,该系统是为飞行结冰事件提供决策支持的。研究结果表明:即便可利用动觉线索与辅助决策相矛盾,飞行员仍然会下意识地听从自动化辅助决策系统的建议,产生了明显的自动化偏见的倾向。Wickens和Alexander(2009)总结几个关于熟练飞行员的模拟研究时发现,即使在飞行员查询原始数据或者观察飞机挡风玻璃外的环境就能发现危险的情况下,52%的飞行员还是会遵从空中交通管制的指引,直接导致他们进入了有障碍物或者危险的路径。

  4.1.3 过度依赖(overdependence)

  操作者手动执行任务的能力可能会随着时间的推移而降低,这种现象有时也被称为“去技能化”(Ferris,Sarter,& Wickens,2010; Geiselman,Johnson,& Buck,2013)。随着飞行管理系统(FMS)的应用,即使是飞相同的航路,自动驾驶仪规划和采用的路线也要比飞行员的人工算法精细,实现更高效的飞行(Sebok et al.,2012),因此飞行员会依赖这类自动化技术。然而根据美国联邦航空局(Federal Aviation Administration,2013a)进行的一项调查发现,由于飞行员过分依赖自动化操作,以致于当他们需要手动操控飞机时手足无措,调查写道,“飞行员习惯了看着故障发生,而已经丧失了着手去解决它们的积极性。”

  2009年法航AF447航班在从巴西里约热内卢飞往法国巴黎的途中坠入大西洋。事故调查表明,尽管恶劣的气象条件(热带风暴)可能是事故的主要原因,然而当险情发生时飞行员向后拉杆(实际上应该向前推杆)导致飞机高空失速也是事故的重要原因(Bureau d’Enquêtes et d’Analyses pour la Sécurité de l’Aviation Civile,2013)。2013年韩国韩亚航空公司214航班在美国旧金山机场降落时坠毁。事故原因调查指向了驾驶员存在驾驶经验欠缺的可能,副驾驶过分依赖自动化飞行控制系统,没有准确地设置自动化,导致飞机在进近阶段撞上防波堤(National Transportation Safety Board,2013)。

  4.2 信任不足(undertrust)

  4.2.1 自动化惊奇(automation surprise)

  自动化惊奇是在20世纪90年代首次出现在航空文献上的措辞(Woods,Johannesen,Cook,& Sarter,1994)。自动化惊奇可以被描述为“在一些情况下,自动化没有立即做出与此前机组人员输入相关信息后相一致的行动,或者自动化的操作与机组成员的预期不一致”。需要注意的是这个定义所指的差异早在飞行员意识到这一点前就已经存在了,这类似于无意识盲视,自满和自动化偏见(Parasuraman & Manzey,2010; de Boer,2012; de Boer,Heems,& Hurts,2014)。有时,自动化惊奇也可以被通俗地定义为飞行员声称或者认为的情景:“自动化正在做的是什么?”,“自动化为什么这样做?”,“下一步自动化将会做什么?”(Wiener,1989)。

  在现有的文献中,自动化惊奇经常与在驾驶舱高度自动化条件下的情景意识(situation awareness)丢失有关(Operator's Guide to Human Factors in Aviation,2014),飞行员可能在飞机出现严重故障时感到困惑——弄不清自动驾驶何时结束,自己的职责又何时开始,提高了坠机和失控的风险。有研究使用眼动和三维运动飞行模拟机研究发现:自动化惊奇要么使飞行员的注意变为过度搜索模式,要么变为低效搜索模式(Dehais,Peysakhovich,Scannella,Fongue,& Gateau,2015)。Hurts和de Boer(2014)主持了一项航线飞行员的调查,结果发现自动化惊奇是一种比较常见的现象,平均每个飞行员每个月都会发生。已经发生了几起与自动化惊奇有关的飞行事故,例如前文所述发生在2009年的土耳其航空公TK1951航班和法航AF447航班坠毁事故(Dutch Safety Board,2010; Bureau d’Enquêtes et d’Analyses pour la Sécurité de l’Aviation Civile,2013)。

  4.2.2 虚假警报(false alarms)

  虚假警报(虚警)也是信任不足的一种典型表现,虚警是指即使不存在触发告警的条件,警告也会响起(Parasuraman,Hancock,& Olofinboba,1997)。这种误报导致操作员不信任告警系统,当用户关闭这些“恼人”且不可靠的告警系统时从未出现过紧急事件,导致用户对真实告警的忽略。研究发现,尽管45%的空中交通管制员在收到冲突告警后不需要采取任何行动(也没有采取任何行动),但是恰恰一些灾难性事故的发生可能是由“狼来了”效应(“Cry Wolf” Effect)所导致的(Wickens et al.,2009)。

  2001年大韩航空公司的客机在关岛坠毁,这起事故就是“狼来了”效应所导致的悲惨后果的典型代表。在这起事故中,由于近地防撞系统发出太多的虚假警告,空中交通管制员禁用了此系统,致使他们根本没有注意到这架飞机在还没有进入跑道之前就已经撞到山上。同样危险的是,机载电脑还会在危急关头向飞行员不分主次地倾泻大量警示信号(包含了大量的虚警),使飞行员应接不暇。例如2010年澳大利亚航空32号航班发生引擎爆炸,当机长尝试降落时,他和副驾驶却被屏幕上闪出的120个指令菜单晃得眼花缭乱,而不清楚究竟哪个信号是解决问题的关键信息。万幸的是该航班最终成功迫降新加坡樟宜机场。

  5 解决途径:以人为中心的自动化显示设计和训练

  对于如何解决这些由自动化信任和依赖引起的航空危害,就要从引起问题的原因入手,“对症下药”,力求“药到病除”。从上文我们可以看到,非适度的自动化信任和依赖(过度信任和信任不足)即过度的信任校准是导致人-自动化不良交互的重要原因。Lee和See(2004)认为适度的自动化信任和依赖可以减少误用自动化和不使用自动化(由过度信任和信任不足所致)发生的频率。值得欣慰的是,已有大量的证据表明人类用户所表现出的过度信任和信任不足,都可以通过以人为中心的自动化显示设计和训练得以改进。因此以人为中心的自动化(human-centered automation; Billings,1997)设计,或者说如何做到人?自动化的适度结合,成为自动化系统的设计者所面临的挑战(Lee & Seppelt,2009)。

  5.1 减轻过度信任和依赖

  对于减轻过度信任和依赖来说,有证据表明提供自动化的可靠性信息(例如,告知用户自动化有50%、70%或90%的可靠性)可以帮助用户校准他们对自动化战斗识别系统的信任和依赖(Neyedli,Hollands,& Jamieson,2011; Wang,Jamieson,& Hollands,2009)。此外,通过对自动化首次失败反应和后续失败反应进行的比较,发现在实际使用自动化前进行训练或练习是解决首次失败最好的技术之一(Manzey,Reichenbach,& Onnasch,2012)。对于用户来说,仅仅被告知会发生故障远不及实际体验该故障更有效。Bahner等(2008)研究发现,用户的自动化故障体验降低了自满水平。这一发现表明暴露于自动化故障的训练可以减轻过度信任和依赖。对于飞行员或空中交通管制员来说,理解自动化系统的局限性,做好突发故障的模拟训练可以提高自动化信任和依赖的校准水平。

  5.2 减轻信任不足

  由于自动化系统的复杂性,操作员可能不理解“黑匣子”里面究竟发生了什么,因此对复杂自动化系统进行功能简化或者良好的界面设计会使飞行员感觉自动化系统更明确,同时也应该加强操作员对自动化运行机制的培训。在显示设计方面,Dehais等(2015)通过在驾驶舱里增加了一种让飞行员详查自动驾驶仪详情的文本提示降低了自动化惊奇的可能。此外,有证据表明报警器误报问题在一定程度上可以通过似然度显示而减轻(Sorkin,Kantowitz,& Kantowitz,1988)。这种显示设计对临界条件的存在与否提供了两个或多个确定性等级水平。也就是说,这种显示设计允许系统说“我不确定”,而不是随便给出一个完整的警报或根本不给警报。这样,在信任程度上允许报警系统有一个相应的区间(例如,很不确定,不确定,确定,很确定),能够对人和系统的灵敏度带来一定的改善。在培训方面,用户必须意识到系统发生故障的可能性很微小,但是带来的后果却是危险的。因而早期的告警是必要的,即便报警器的误报现象(“狼来了效应”)是不可避免的。所以无论是飞行员还是空中交通管制员,当有警报发生时必须尽快处理不容忽视;然而相应的诊断虚警的经验和专业培训也是必不可少的。

  6 总结与展望

  自动化系统广泛地应用在航空业中,无论是机载自动化设备还是地面空管自动化设备,都旨在减少飞行员和空中交通管制员的负荷,完成操作者无法或者不便直接执行的任务,弥补操作者能力的局限,增强协助人的操作,更经济高效。例如,Watts,Ambrosia和Hinkley(2012)开发的自动化航线规划辅助系统,Giraudet,Imbert,Bérenger,Tremblay和Causse(2015)设计的空中交通管制的界面显示等。然而由于非适度的自动化信任和依赖校准,人-自动化系统并非总是良好匹配。过度自信(自满、自动化偏见、过度依赖)和信任不足(自动化惊奇、虚假警报)及其所引发的航空安全事故和事故征候值得我们深入探究。需要说明的是,自动化信任和依赖并非一成不变而是动态变化的,就一起航空安全事故或者事故征候来说,存在过度信任和信任不足两种现象都发生的可能。因此今后可以从自动化信任和依赖的不同水平和自动化的不同阶段的角度出发,继续这一问题的研究。

  以人为中心的自动化显示设计和训练可以将这种非适度自动化信任和依赖调整到适度的状态。良好的显示设计应该对自动化当前状态、状态的变化(比如不同自动化水平和功能模式之间的切换)以及自动化所监测或控制的进程状态等关键信息的呈现上做出改进,使用户易于熟悉理解。显示设计是可以不断改进的,但是航空活动毕竟是复杂且专业的,相关的手动训练和事故模拟训练是必不可少的。最后从航空业本身的发展上来说,技术上的进步已经可以使无人(遥控或者自动)商用飞行成为可能。如此,由飞行员非适度的自动化信任与依赖所造成的航空活动中的不利影响将不会出现。但是,对于地面操作人员来说,这种新技术的引入是否会产生新的非适度自动化信任和依赖,进而造成危害呢?另外,从乘客的角度来说,人们会不会接受这种新的无人商用飞行呢(Hughes,Rice,Trafimow,& Clayton,2009; Molesworth & Koo,2016; Riceetal.,2014)?这些都是未来值得研究的问题。

0荐闻榜

微信

延伸阅读:
发表评论
发表请先 登陆/注册

严禁发布攻击他人、言语粗俗、涉及政治等违反规定的言论,违者法办!

      安徽无为县高沟镇 大划镇 肃宁镇 革一乡 顺义滨河小区北口
      纺建路 顺义城乡大厦 椿树园 三梅中学 丛台路