通过展示组织形式的重要性并将其称为“认知生态”,斯塔克提醒我们,在生产商品、服务或知识时,我们很少独自工作。如果我们将自己重新想象为更大的认知单元的一部分,而不是个人,会怎么样?
这是 Edwin Hutchins 和 Tove Klausen 的观点,他们观察并分析了商业航空公司飞行员的工作(Edwin Hutchins & Tove Klausen,《航空公司驾驶舱中的分布式认知》)。您可以通过YouTube 上大量出乎意料的扣人心弦的驾驶舱视频亲自做到这一点。他们描述说,波音 727-200的驾驶舱需要三名机组人员,周围都是表盘、按钮和仪表。
“决定您生死的是该系统的性能,而不是任何单个飞行员的技能。为了了解驾驶舱作为一个系统的性能,我们当然需要参考单个飞行员的认知特性,但我们还需要一个新的、更大的认知分析单元。这个分析单元必须允许我们描述和解释由飞行员及其信息环境组成的驾驶舱系统的认知特性。我们称这个分析单元为分布式认知系统”。
克劳森和哈金斯的“分布式认知”概念为我们提供了丰富的见解。它帮助我们理解非凡壮举(飞行不是人类的基本能力)如何通过人机交互实现。通过认识到更大系统内认知类型的互补性,更容易凸显人工智能在增强人类能力而不是取代人类能力时可以创造的价值。
座舱
“分布式认知”在行动
哈金斯和克劳森并不是唯一受到飞行员分布 英国海外华人数据 式认知演示启发的人。外科医生阿图·葛文德 (Atul Gawande) 认识到,当医生的认知负荷分布不够时,他们经常会在复杂的手术中犯错误。他的答案是创建一个清单:让外科医生将认知外包给操作系统的另一部分(*双关语*)。这或许是一种低技术解决方案,但却是有效集体智慧的一个例子(阿图·葛文德,《系统的世纪》,BBC 里斯讲座)。
当集体智慧失败时谁应该承担责任?
依赖于人类和计算机分布式认知的系统可能会出错,有时会造成悲剧性的后果。
在最近的一篇论文中,数据与社会研究员 MC Elish 探讨了自动化系统发生故障的情况(MC Elish,《道德缓冲区:人机交互中的警示故事》)。在她介绍的案例中,事故的发生是由于人与系统之间的交互,而这些系统的设计者并没有对人类行为有清晰的理解。将责任归咎于“系统”并不直观,因此这些事故的责任往往落在操作员身上。她将这种现象称为“道德缓冲区”,即“以牺牲最近的人类操作员为代价来保护技术系统的完整性”。
澳洲航空 QF72 航班飞行员凯文·沙利文(Kevin Sullivan ,《我变得非常孤立:QF72 航班几乎坠毁的后果》,《悉尼先驱晨报》)的悲惨经历表明,复杂的人机系统中道德责任的模糊性。沙利文的计算机故障导致了一次暴力和几乎致命的飞行。然而,当他写到这件事时,他描述了他如何发现自己处于“道德崩溃区”,无法否认对让他失望的系统的责任。
“我该如何向乘客解释,控制飞机的计算机失控,并在混乱中将机头猛地向下压?……机长不知道飞机剧烈动作的原因,这种情况很糟糕。”
这些事件和经验对于工作场所集体智能系统的设计有何启示?Elish 提出了两个关键点,证明了与人类一起设计人机团队的重要性: