星期天的下午,沈笑夫如约来到刘红林老师那儿先是上课,然后吃饭。
刘红林老师说
“今天我们来学习驾驶舱自动化与人的因素,这个主要讲飞机的无人驾驶。
为什么要学这个呢?因为汽车无人驾驶与飞机无人驾驶有相同之处,未来的飞行无人驾驶汽车更加是同一码事。
所以,我们可以思路开阔一些,了解一下飞机的无人驾驶问题。”
沈笑夫郑重地点点头。刘红林老师就是好,从来不拘泥于教材,而是以驾驶学科为原点,放飞思绪,拓宽思维,思考和探讨很多相关的问题。
这一点,让沈笑夫收获多多。
沈笑夫觉得,自己少了一些学究们的迂腐味,多了一些开放思维,与刘老师很有关系。当然,与学与行的板寸儿童老师、水木大学的孙教授也很有关系!
这时候,刘老师继续道
“目前,自动化程度越来越高是民用航空的一个突出特点,现代飞机的自动控制系统已经达到了非常复杂、相当完善的程度。
它为民航业获得了极大的经济效益、社会效益和安效益。
从理论上讲,自动化在某些方面取代了人,避免了人的错误,从而使航空器的运行更加安。
但是,世界上仍然在不断地发生航空事故。
自动化技术的引进改变了飞机驾驶舱的人机界面和飞行操作方式,这些事故和事故征候表明,自动化设备的故障和人—机界面设计不匹配是事故的关键因素之一。
到目前为止,自动化的引入,已成功地消除了某些类型的错误,但另一方面,它却发生了差错的转移。
研究表明,虽然自动化可消除一些小的差错,但它可能增加出大错的可能性。
我们来想想飞机驾驶舱,是一个什么空间?”
沈笑夫道“飞机驾驶舱是一个复杂的、动态的、高技术、高标准化的环境,随着自动化程度的提高,在原来已经很复杂的人机界面的基础上继续增加一些技术上的功能,无疑增加了操作人员的工作负荷。”
刘老师笑着说
“是呀!
更为重要的是,由此引起的飞行员的操作错误结果将是灾难性的。
所以,非常有必要对航空自动化系统的可用性进行评估,确保交互式系统的安性、功能性、高效性和可用性。
今天我们主要讨论驾驶舱自动化所带来的一些潜在的问题以及飞行员与自动化系统间的交互作用,并探讨了进一步提高飞行安的途径。
首先,驾驶舱自动化存在哪些潜在问题?”
沈笑夫想了想,回答道“是不是驾驶员不知道什么时候该接管飞机驾驶?”
刘红林老师笑着说
“嗯!这算一个重要问题。
不过,驾驶舱自动化问题不是一个,而是一堆。
那么,驾驶舱自动化存在哪些潜在问题呢?
比如,新设备的使用,引入了新的人机关系和界面,而这可能与传统的工作方式和思维方式发生了矛盾和冲突,从而导致了新问题的发生。
另外,自动化装置(或系统)都是在分析已知问题的基础上设计的,它所能处理的是设计者所能考虑到的情况,一旦设计者没有考虑到的情况发生,自动化系统也就可能变得无能为力了。
所以,自动化在提高飞行效率和改善飞行安的基础上,同时也存在很多的潜在问题,而且很多是不好解决的,下面将对此做简要的介绍。
第一个问题失去系统意识。
自动控制系统通常是为了降低操作人员的工作负荷而引入的,这样可以使飞行员有更多的心理资源来驾驶飞机。
但是在有些情况下,高工作负荷不是最重要的问题,相反,在工作负荷已经很低,飞行员丧失了情景意识的情况下,工作负荷仍然被自动控制系统减轻才是最重要的问题。
因为在此种情况下,会使飞行员的情景意识丧失,这样会使操作人员不能积极地针对当前的情况采取相应的措施。
faa的人为因素研究委员会指出,80的严重航空事故是由驾驶舱自动化界面设计差所导致的人为差错产生的。
其中最主要的问题是缺少对当前系统状态的描述,即缺少对系统工作方式的反馈,这样就阻碍了飞行员有效管理系统的工作方式,丧失情景意识。
比如,自动控制系统严格按照要求运行,但是系统后台的逻辑却十分复杂并且不被飞行员所理解。
这是一个糟糕的心理模型,因为他们本身对自动化系统的基本功能和局限就不了解,导致飞行员不能够正确理解指令背后的原因,或者完不理解系统正在做什么以及为什么这样做,那么就很容易失去系统意识。
对于操作人员来说,它可能正在被错误地操作。
2000 年,sarter woods 发现,随着现代飞机的复杂飞行管理系统的出现,自动控制系统常常会引发一些意外事故。”
沈笑夫问到“哪些意外事故啊?”
刘红林老师笑着说“比如在风速和高度发生突然变化时,自动控制系统可能会发生一定的变化,但是这些变化对于飞行员不够明显,导致飞行员要么不采取任何措施,要么选择不恰当的工作方式,遇上复杂的情况有可能导致飞行事故。”
沈笑夫道“哦!那飞行员对自动化一般是什么态度呢?”
刘红林老师道
“飞行员对自动化的态度可以表现为过分信赖与不信任。
在飞机驾驶舱里,无论以何种方式引入自动化,飞行员会对自动化的其中一些方面不加批判地接受,同时对自动化的其他方面会拒绝,
虽然,在有些情况下,是因为操作人员没有按照设计人员所设计的方式来使用。
主要原因是由于受用户界面是否友好的影响。
目前,自动化系统成功地取代了许多原先由人来完成的工作,在某些方面甚至比人做得更好,因此某些飞行员产生了过分依赖自动化设备的思想。
已有的研究表明,飞行员对自动化系统的信任严重影响其与系统间的互动。
由于对自动化系统过于依赖,飞行员就会容易习惯于新型自动化系统的有效性和高质量,即使在出现问题的时候,人们也可能不愿意抛弃自动化并接管其工作。
这样就会导致运行人员变得思想麻痹,确信自动化系统能有效地工作,从而放松警惕性或对系统性能出现的差错过于宽容。
同时,高度的自动化还会导致飞行员感到自己不再重要,感到职业技能失去价值以及缺乏对人员表现的反馈,这样就减少了飞行员对工作的满意程度,造成他们对工作不满意和无兴趣。
由于人对特定情况的评估与自动系统有所不同,或者没有对运行人员进行充分的培训,那么,不信任自动化系统的情况就会发生;
特别是一些告警系统,如果由于系统设计缺陷,出现一些虚假和错误警告,还会加重对自动化的不信任,如第一代近地警告系统(gs)所发生的情况。
虽然,人—机界面的改善在一定程度上可减少一些飞行员对自动化不友好的态度,但这种态度仍然会影响飞行员对自动化系统的操纵。
当飞行员对自己独立评估有关危险的能力的自信心与对自动化系统的信任都很低时,此时,一旦出现操作人员不认可的输出信号的情况下,他们就会不知所措,而且无法预知哪种因素(操作人员或自动化系统)会决定最终的行动。”
。