浏览次数:83 发布时间:2025-04-09 09:33:06
在人工智能技术的驱动下,人机协同决策效能逐步提升,展现出巨大的潜力。然而,当前人机协同决策领域面临情感问题、信任问题、决策权力分配问题和道德对齐问题等挑战。本文提出了人机协同决策的未来发展方向,包括提升机器对人类情感的理解和响应能力、建立稳固的信任机制、优化决策权力的分配方式,以及确保机器决策符合伦理和道德标准。在迈向人机共生的道路上,不仅需要技术创新,还需要结合心理学视角来应对这些挑战,以实现更加高效、安全和可持续的人机协同决策。
人工智能的发展正在改变着人与机器的关系,人类正在从对机器的使用和控制转向与机器的深度协作。20世纪60年代,Licklider提出“人机共生”概念,强调发挥人类与机器各自优势实现共同目标。近年来,机器在认知智能方面取得了长足的进步,尤其在博弈学习、自然语言处理、图像识别等领域已经展现出超过人类表现的潜力。但人机协同过程中面临人机内部兼容性问题,涉及认知、情感、价值观等方面,如何解决这些问题成为人工智能领域的研究焦点。当前研究表明,要实现高效的人机协同决策,需要解决几个关键性挑战。首先,人类和机器在心理模型上的不一致会明显影响协作效率,这要求机器能够理解人类的情感状态并做出适当反应。其次,人类对机器的信任程度直接影响协同质量——过度信任可能导致依赖,而信任不足则可能导致系统被忽视或误用。第三,人机之间决策权力的合理分配至关重要,既要避免机器过度主导可能带来的安全风险,也要避免人类绝对主导导致无法充分发挥机器优势的情况。最后,随着机器在决策中扮演越来越重要的角色,确保其决策符合人类伦理道德标准的需求日益凸显。基于这些研究成果,本文从机器智能如何能够以人为中心地完成人机协同决策的角度,重点讨论了情感理解、人机信任、决策权分配、道德对齐四个方面的内容。
1 人机协同决策:发展与基础
20世纪50年代,早期决策支持系统依赖人力计算和单一数学模型,随着问题复杂性增加,超出了传统的人力处理能力范畴,科研人员开始寻求大型计算机的辅助,由此开启了人机协同决策的篇章。20世纪60年代,交互式计算机技术发展,大型计算机广泛应用,管理信息系统(MIS)出现,但仅提供结构化报告,缺乏交互支持。1971年,决策支持系统(DSS)概念提出,标志着机器智能正式参与决策。进入21世纪,机器学习等技术的进步提升了机器决策效能,其应用扩展至农业发展、交通管理、灾害应对等更广泛的领域。
人机协同决策的核心在于利用人类与机器的互补优势。人类决策者擅长处理非结构化问题、跨领域知识整合、创新思维和道德判断,能够理解复杂情境并做出灵活应对。而机器在高速计算、大数据处理、长期记忆存储和稳定决策方面具有明显优势。然而,人机双方也各自存在局限:人类易受认知偏见影响,在处理大量数据时能力有限,且容易出现决策疲劳;机器则在情境理解、知识迁移和应对全新问题时表现不佳,缺乏人类的创造性思维和道德直觉。
这种人机之间的异质性既是协同决策的基础,也是其面临的挑战。当两种本质不同的智能体需要共同完成决策任务时,如何克服彼此的差异,实现高效互补,成为了人机协同决策研究的关键问题。只有解决了这一异质性问题,才能真正发挥人机协同的潜力,提高决策质量和效率,使人机协同决策成为未来决策科学的重要发展方向。
2人机协同决策的心理学
基于智能技术的机器正在从人类的辅助工具逐步发展成为具备一定程度人类认知能力的自主化智能体,但是由于人机在决策能力上存在异质性,这给人机协同决策带来了新挑战。本研究从心理学视角出发,将目前人机协同决策面临的主要挑战总结为人机情感问题、人机信任问题、人机决策权力分配问题及人机道德对齐问题。
2.1 人机情感问题
情感是影响人类决策最重要的因素之一,在人机协同决策中让机器理解人类情感并进行适当响应,能够促进人机信任,优化决策效率,进而增进协作效果。1997年,Picard提出“情感计算”概念,旨在赋予机器识别、理解、适应并表达人的情感的能力。当前情感计算主要基于外部和内部表征识别人类的基本情绪,但机器在情感识别方面存在准确性低、对不同文化背景理解欠佳等问题,尤其在复杂和微妙情感识别上挑战巨大。同时,人类情感具有情境灵活性和个体差异,机器需具备高度情境理解和社交智能以适应这些变化,而如何量化设计和实现这种情感交互仍是开放问题。未来人机协同决策中,机器需具备情感智能,优化深度学习模型和深入理解人类情感机制是关键研究方向。
2.2 人机信任问题
人机信任直接影响了人类接受机器并遵循其决策或建议的意愿程度,过高或过低的人机信任程度都会降低人机协作任务的完成质量。过度信任可能导致人类依赖机器、忽视自身直觉和经验,在关键情况下可能会导致决策失败;信任不足则会使人类过度干预系统,降低整体决策效率,“算法厌恶”就是人机信任不足的典型表现。为实现有效人机协同决策,需帮助用户建立适度信任。可通过提高算法透明度,如开发可解释的人工智能技术;开展教育和培训,让人类理解机器算法性能和限制;优化人机界面设计,促进沟通等方式来实现。此外,机器表现出类似人类的特征,如情感能力,人类更容易建立信任。
2.3 人机决策权力分配问题
如何在人类和机器之间平衡决策权力,从而充分利用各自的优势实现高效的协同决策是人机协同决策领域的重要议题。机器主导决策可能引发系统安全风险,人类占据绝对领导地位则无法充分发挥机器性能优势。目前多数人机协作情境中,决策权由人类决策者主导。研究表明,人机决策权力分配会影响决策策略,人类存在对环境或自身行为的控制需求。合理的人机权力分配应具备动态性和灵活性,从机器角度可采用自适应自动化系统,根据环境和任务调整决策权力;从人的角度出发,可增加人类在决策过程中的参与感受、提供有关机器智能及其安全性的教育和培训,并根据人类状态和外部条件调整权力分配,未来人机决策权力分配将朝着更平衡、互补的方向发展。
2.4 人机道德对齐问题
随着机器决策权力增加,人机道德差异问题凸显。人类对机器道德判断机制理解不全面,会质疑机器决策的道德性,同时人类在与机器共同承担责任时,人类可能出现道德逃避行为,试图将责任推给机器。
机器对人类价值观和道德的忽视主要是由机器理性决策的刻板印象导致的,如自动驾驶汽车的道德困境和面部识别系统的偏见问题。为解决这些问题,研究人员尝试将情感、道德等因素纳入机器学习模型,使用无偏见训练数据、更新算法等。在人机协同中道德责任归属是复杂的问题,不少学者呼吁出台相关新法律、明确法律框架,以确定人类和机器在不同情况下的责任。人机协同中的挑战现状如表1所示。
3展望
2017年7月8日,国务院印发《新一代人工智能发展规划》,明确了人工智能作为新一代科技革命和产业变革核心动力,在国家战略中的关键地位。规划针对2030年中国新一代人工智能发展提出了战略目标,将人机协同的混合增强智能列为人工智能发展的核心方向之一。
在此背景下,人机协同决策系统不仅需要具备高效的执行能力,更需要考虑减少协作时的摩擦,这涉及到人机情感问题、人机信任问题、决策权力分配问题,以及责任划分等道德问题。
从机器的角度,需要具备情感智能,以便深入理解和适应人类的情感。机器还需要提高可解释性,使用户能理解其决策过程及依据,以形成可信可靠的人机协同决策模式。未来的人工智能系统还应具备泛化能力,适应不同的领域和场景,自适应地根据人类和机器的实时性能、信任度和需求进行权力调整,实现更高效和安全的协同决策。
从人类的角度,政府和企业需要采取相应措施,如推动教育和培训,使人类决策者适应新的技术和工作岗位,确保人类在人工智能时代的竞争力和价值。为实现人机协同决策,人类需要了解机器在不同领域的能力边界,以充分利用其优势并避免过度依赖。同时,还需考虑人的适应问题,如适应不断变革的智能化工作方式,处理可能出现的心理问题等。
展望未来,新技术有望显著提升人机协同效能,尤其是脑机接口(brain-computer interface,BCI)技术将成为关键推动力。BCI技术通过直接读取和解释大脑信号,实时捕捉用户的意图和情感状态,并将其反馈给机器,使其能够更准确地理解人类的情感、需求和意图,从而实现更加自然和高效的人机交互。
综上所述,未来的人机协同决策研究应该注重多学科的融合,以应对复杂多变的决策环境,以更好地实现人机互理解和互适应,从而迈向人机共生的新时代。