图片展示

无人系统自主性研究综述

作者:沿海文化科技(广东)有限公司 浏览: 发表时间:2019-06-05 10:06:43

一、引言


2012年7月,美国国防科学委员会发布了《自主性在国防部无人系统中的地位》,进一步指出自主能力是美军无人系统中的核心能力,分析了自主能力给无人机(UAV)、无人地面系统(UGS)、无人海上平台(UMV)和无人太空系统(USS)带来的作战效益。报告指出,美国当前无人系统的运用主要是在取得绝对制空权的条件下执行侦察和打击任务,需要高度重视无人系统所受到的威胁、人为干扰和网络攻击等挑战。


报告认为“世界上并不存在完全自主的无人系统,所有的自主无人系统都是人一机联合认知系统”,提出了一套从认知层次、时间轴和人一机系统权衡空间等 3 个视图定义的自主系统参考框架,并期望代替对无人系统自主控制等级的划分,强调自主难题的解决要更多地关注指挥官、操作员和开发人员三者的协调问题。


报告提出了提高自主能力亟待发展的技术,包括感知、规划、学习、人一机交互、自然语言理解和多智能体协调6项关键技术,指出每个研究领域的技术发展现状和目前存在的差距。其中感知技术包括导航、任务、系统健康与移动操作4类感知,主要差距是复杂战场感知与态势理解,包括突发威胁/障碍的实时检测与识别、多传感器集成与融合、有人一无人空域冲突消解,以及可靠感知和平台健康监控的证据推理能力等;规划技术的难点是在物理和计算约束和对现有计划做最小改变的条件下,决定什么时候自主重规划、什么时候求助于操作员;学习技术的难点是在友、敌智能体并存的非结构化动态环境中的非监督学习;人一机交互的难点是自然用户接口,实现可信赖的人一系统协作以及可理解的自主系统行为;自然语言理解的难点是以实际环境直接互动为重点的指令和对话理解;多智能体协调需要重点关注针对特定任务,合适协调方案与系统属性的映射,正确的紧急行为,干扰下任务重分配以及鲁棒网络通信问题。


二、自主性定义


1. 自动化


自动化(Automation)目前应用于各种系统,一般包括应用软件来实现遂行的逻辑步骤或操作。传统的自动化是指“系统运行无需或很少需要人工操作,但系统功能仅局限于设定的具体行动”。应用于飞行器系统的自动化还包括飞行控制系统所用的电传操作技术、将多个传感器信息进行整合的数据融合技术、制导与导航自动化技术(如飞行管理系统)、地面防撞自动回收技术等。可以说,这些系统只是在一种或多种功能上实现了不同程度的自动化(从低级到复杂),属于半自主性(Semi-autonomous)。


2. 自主性


“自主性”(Autonomy)总的来说是指“在更为广泛的作战条件、环境因素和更为多样的任务或行动中,使用更多的传感器和更为复杂的软件,提供更高层次自动化的行为”。自主性的特征通常体现在系统独立完成任务目标的程度。也就是说,自主系统要在极其不确定的条件下,能够完全排除外界干扰,即使在没有通信或通信不畅的情况下,仍能弥补系统故障所带来的问题,并确保系统长时间良好运行。


要实现自主性,系统必须“有一系列基于智能的能力,能够对设计中未规划未预测到的态势做出响应(即基于决策的响应)。自主系统应当能够在一定程度上实现自我管理和自我指导(由人的决策代理进行)”。软件设计方面,不仅要基于计算逻辑(更加通俗的说法是“基于规则”),还要采用计算智能(如模糊逻辑、神经网络、贝叶斯网络),通过智能体的通信和协同来实现目标。此外,学习算法可以实现学习,并适应动态环境的能力。自主性可视为自动化的重要延伸,可以在各种未完全预测到的环境下成功地执行面向任务的高级指令,正符合目前对人在具备适当的独立性和任务执行限制时的期望。因此,自主性也可理解为设计良好、具备较高能力的自动化。


3. 遥控平台


空中、地面、水面和水下无人平台将成为未来军事行动中不可或缺的重要组成部分。然而,当前大多数无人系统都由人遥控,在一些任务中的自动化程度较低(例如操作员指定平台的航点)。未来,这些遥控平台将具备更为强大的自主性;然而,“遥控”和“自主”这两个概念事实上是正交的,即只能存其一,也可二者兼而有之。遥控平台可由人直接遥操纵,也可实现半自主(应用一些自动化功能)或全自主运行。此外,有人装备也可借助软件,以人工、半自主或全自主等多种方式遂行多样化任务。


自主性可以理解为控制谱系的一个潜在端。然而,在未来30年里,大部分应用将运用一定级别的半自主能力。换言之,我们将见证系统控制的逐步发展,而介于中间的自主等级将在不同任务中得到应用。未来随着自主能力越来越强,可以应对更多任务并应用环境中更多样的变化,系统将逐步向自主性更强的作战行动发展。然而,在大部分作战行动中,自主能力仍要求与空军人员进行交互,以接收指令,了解作战需求,并实现行动协同。


三、参考框架


1. 认知层次


依据不同的决策类型,自主将发挥不同的作用,也面临着不同的挑战。如果从认知层次视图检查设计方案,那么可以站在不同控制级别上的用户(从飞行员到任务指挥官)的立场上,更好地发挥自主作用,还能为扩大自主使用范围提供机遇。目前,许多系统都注重将自主与平台相结合,在这个过程中,需要在飞行员和传感器操作员之间进行互动。自主可以将较高级别的航路点转化为平台轨迹和控制行动,对照目标定位、跟踪传感器,并将原始传感器数据处理成较高级别的信息内容(如目标跟踪等)。


自主也可以和任务相结合,利用规划工具,支持编队领导和编队成员生成潜在的行动过程和任务管理功能,以监视任务执行情况,确定当前故障或故障先并为其他平台和队员的操作协同提供便利条件。


在更高的认知层次上,工作重点将转向参照高级任务目标对资源进行管理。目前,在不同任务目标的指引下,大规模资源与任务分配,例如,每个平台具备不同传感器与武器配置选项,平台对多个目标的任务指派也不同,实现多平台多目标的任务分配,大部分工作都是手动完成的。大规模资源与任务分配在时间和人力上向任务指挥官及其手下所有人员提出了严峻的挑战。大规模作战特别适合于基于最优化的规划工具。利用这种基于最优化的规划工具,可以使部队尽快投入任务,减少人力与工作负荷,并确保更好地完成任务目标。在这个层次上,态势理解的主要对象不是平台,而是复杂的、不确定的、快速演化的战场空间。对此,利用智能分析软件,可以有效地协助任务指挥官整理大量数据,同时提取可行动的相关资料。


2. 时间轴


正如前文所述,依据不同的决策类型,自主将发挥不同的作用,也面临着不同的挑战。但是,必须注意的是,在任务的时间轴上,决策类型随着时间的变迁也会发生变化。一项任务可分为三个阶段:启动阶段、执行阶段和结束阶段。在每个阶段,自主技术都有不同的应用空间。例如,在启动阶段可以利用自主规划算法,发挥起飞前的相关功能,包括路径规划、意外事故应急计划等,还可以支持更为复杂的任务规划,例如,指定许可范围内的权限委派和行动范围。此外,自主起飞也是在启动阶段应用自主技术的佐证之一。无人系统任务的执行阶段是一个平稳的阶段。无人机通常离不开自主航路点导航。除此之外,自主技术还可以利用软件智能体来监控行动故障或态势变化,主动防止因这些行动故障或态势变化而导致初始计划中的某个部分或某些部分失效或需要进行重规划。在结束阶段,一但任务完成,便可以利用自主技术来对收集到的数据进行预处理,然后将处理后的数据返回给平台,最后再使平台自主着陆。


尤其值得注意的是,整个任务期间,人类与计算机智能体在各个认知层次上的主动性和地位相互之间是可以易位的,其目的是适应态势发生变化时所出现的新事件、新干扰和新机遇的需求。在感知、作用和规划的不断循环过程中,自主发挥了积极的作用。


3. 人—机系统权衡空间


通过权衡空间视图,可以有效地预测因资源失衡等(如人力资源浪费、故人为失误增多等)可能引发的不良后果及其相关症状。从权衡空间视图上看,自主可以被比喻为气球:一方面利用自主技术,可以提高系统的能力;另一方如果权衡不恰当,那么将会导致“气球爆炸”或限制这一气球的膨胀。按要求,应对以下五个方面进行恰当的权衡:


(1)适应度。在系统对新任务或意外情况的自适应能力和性能最优化之间行权衡。


(2)计划。在系统有效地跟踪现行计划与全面检测某个计划不再有效而需要改变的需求之间进行权衡。


(3)影响力。在集中式与分布式之间进行权衡,使远程或当地获取的信息在不受潜在因素或不明因素影响的前提下具有可视性。


(4)视角。在局部性与全局性之间进行权衡,掌握态势,使在一个单元中的集中行动与多个单元间的干扰和协调之间相适,以取得更好的效果。


(5)责任。在长期目标与短期目标之间进行权衡,在目标上达成统一。


表12对上述五个权衡空间进行了汇总。这五个权衡空间得出一致的结论:如果不恰当地提高自主等级,那么可能会引发不良后果或导致错失机遇,进而影响系统的整体性能。下面以特别工作组亲自经历的案例为例,证明无人系统自主性在使用不恰当的情况下,可能会引发意想不到的后果。如果提前考虑多个权衡空间中可能出现的后果,那么就可以提前捕捉预警信号,在各个权衡空间内及时进行系统性能平衡或再平衡处理,从而有效地减少引进自主技术时所带来的风险。


四、发展领域


1.    感知


无论是在平台上还是在战场上,感知( Perception)能力都是实现自主的关键要索。只有通过感知,无人平台才可以到达目标区域(如导航、避开障碍物等)实现任务目标。例如,平台收集传感器数据、应用动能武器和对抗简易爆炸装置(IED)等都离不开感知能力。


感知过程需要传感器(硬件)与感知能力(软件的支持。传感器模态是传感器原始输入,包括声音、压力、温度和光照等。在某些情况下,它与人的五种感官相似。模态可以继续进行细分。例如,视觉通道可以细分为可见光、红外线、X光以及其他模态。当传感器模态利用电磁波频谱来生成图像时,导航与任务传感器处理也可以称为计算机视觉。图像是以类似于图片的格式所呈现的数据,与所捕捉到的现场有直接物理对应关系。在下文论述中,我们根据感知的不同目的,将无人系统的感知功能分为四大类,即导航感知、任务感知、系统健康感知与操作感知。由于在某些情况下,平台可能为了实现室内导航而需要对某扇门进行操作,也有可能为了完成某项任务而需要对简易爆炸装置进行操作,因此,这四个类别经常存在交叉现象。此外,到达目标区域和在拒止区域内移动,需要导航功能的支持,而在导航功能的支持下到达目标区域之后,则需要通过任务感知来完成任务目标。


在启动制导、导航和控制(GN&C)功能时,需要通过导航感知来支持路径规划和动态重规划,以实现多智能体通信与协调。一般情况下,导航是指平台朝目标方向移动的全过程,这与平台运动控制相对(如保持竖直位置或为足式机器人选择步法)。通过提高导航感知能力,可以提高平台的安全性(因为人的反应速度通常不够快,也无法克服网络的滞后性,因而无法保证导航的可靠性和安全性),同时减少操作平台或驾驶平台时的认知工作负荷尽管这还不是以减少人力需求量。通过选择机载感知处理方式,可以提高平台间的反应速度,帮助平台对抗网络攻击或网络破坏。


任务规划、想定规划、评估与理解、多智能体通信与协调和态势感知都需要任务感知的支持。提高任务感知的自主感知能力,可以带来四大好处一是机器人能够秘密地执行任务,例如,在不需要全程网络连接的情况下进行跟踪某个活动,从而减少网络受到攻击的可能性,减操作员的认知工作负荷;二是通过自主识别,即使是目标提示或给目标划分优先级别,可以减少数据分析员的需求量;三是通过机载确认或给部分拟发送数据划分优先级别,可以降低网络需求,例如,“全球鹰”需要消耗大量带宽;四是可将任务感知与导航结合,例如,指挥平台在空中盘旋静止、转圈等。


平台健康感知主要应用于故障检测与平台健康管理但是,在进行故障预测、重规划与意外管理时,也需要应用平台健康感知功能。加强自主健康监控至少有三大好处:一是当自主故障检测、确认和修复的速度可能高于手动检测、确认和恢复的速度时,使得故障弱化,并有助于修复故障;二是提高用户对系统的任度,尤其是系统不按预期运行,或在任务关键阶段突然出现故障时;三是进步减少操作员的认知工作负荷,不再需要特别安排一位操作员全程监视诊断


随着导航地点从室外转向室内,任务重点也从远程感知转移到远程行动上,操作感知变得越来越重要。利用地面机器人来将门打开是一项艰巨的任务。除此以外,需要利用操作感知来完成的其他任务包括拆除简易爆炸装置、车辆检查在此过程中,需要移动毯子、包裹等物件),以及物流与材料处理等。提高自主操作感知有两大好处:一是它可以减少完成操作任务所需的时间及其工作负荷;是减少参与任务的机器人数量,因为在没有提高自主操作感知能力之前,通常要另外安排第二个机器人来协助操作员随时监控操纵器与被操纵物体之间的关系


2. 规划


规划(Planning)是指能将当前状态改变为预期状态的行动序列或偏序的计算过程。国防部将规划定义为在尽可能少用资源的前提下,为实现任务目标而行动的过程。在这一过程当中,共有两个关键点:①描述行动和环境条件、设定目标/资源最优化标准;②在遵照硬性限制条件(例如,平台在地形和速度等方面的限制条件)、优化软性限制条件(例如,最大程度地减少完成任务所需的时间或人力)的前提下,提供计算行动序列和分配行动资源的算法。


各个领域都有自己相应的规划,包括商业/工业、政府和军方等。制造业很早就已经开始制订物流规划和生产调度,以确保各种商业产品的生产计划与产品需求相协调。例如,机器制造与交通信息管理系统(ETMS)专门用于规划和管理香港地铁系统的维护与修理工作:200年,Bell等人开发了人工智能规划系统来设计和监控英国电力系统的电压;美国NASA所开发、部署的多个系统也使用了人工智能规划;自主科学航天器实验分析了地球观测卫星的实验结果并重新规划了问题求解和机遇开发的方法( Sherwood等,2007);多飞行器综合科学理解系统( MISUS)则专门用于在一组自主飞行器内协调多个数据采集计划( Estlin等,2005);蒙特利湾海洋研究所一直致力于开发智能体控制反应性执行程序T-REX系统,该系统主要用于控制水下自主系统来执行数据采集任务( Mcgann等,2008);OTS公司也开发了用于对新海军舰艇进行规划的准时信息系统( ARGOS)和在非作战条件下的空军飞行路径规划系统,以达到减少燃油消耗的目的(OTS,2012)。人工智能规划有助于对复杂系统进行管理,其优化组合既是最为关键的一个步骤,也是难于完成的一项任务。它所提供的算法还可以帮助系统针对无人环境(如太空、海洋等)做出相应的行动决策(提供自主能力)。


3. 学习


机器学习现已成为开发智能自主系统最有效的办法之一。大体而言,从数据中自主获取信息比手动知识工程的效率更高。计算机视觉最新技术系统开发、机器人技术、自然语言理解和规划主要依赖于训练数据自主学习。通过在大量具体数据中寻找可靠的模式,一般可以使自主系统的精确性和鲁棒性高于手动软件工程,还可以使系统根据实际运行经验自动地适应新环境。


4. 人—机交互


人一机交互( Human—Robot Interaction,HRI)是一个相对而言较新的跨学科领域,主要解决人与机器人、计算机或工具如何协作的问题。它是人一系统交互的一个分支领域,侧重于人与机器人之间双向的认知交互关系,在这个交互关系当中,由机器人承担智能体的角色,在远离用户、计算机或自动驾驶仪的位置上运行,在技术上巨有明显的优势。为了与有关科学文献保持一致,本报告将一律采用人一机交互这一术语,无人平台(UxV)则表示特定形式的机器人。


无人平台和计算机之间具有明显的区别。无人平台承担着智能体的角色能对物质世界造成影响,通常也具备一定级别的自主性。它的能力高于一般工具,可以承担一定的工作或拥有有限主动权。机器人作为智能体,引发了人们对其能力、自适应能力、共享目标以及人际礼仪的高期望值,这种期望被称为“社会响应”,尽管人一机之间的关系可能并不十分和谐。人一机交互主要解决六大基础研究问题:


(1)人与无人平台如何沟通?


(2)如何为人与无人平台之间的工作娱乐或相应的交互关系建模?


(3)如何研究并提高人与无人平台之间的配合度?


(4)如何预测人与无人平台协作的可用性和可靠性?


(5)如何捕获和表达人与无人平台在特殊应用领域中的交互关系?


(6)如何刻画终端用户?


由于研究范围十分广泛,人一机交互涵盖了无人系统、人因学、心理学、认知科学、通信、人一计算机交互、计算机支持工作组以及社会学等多个领域。这种庞大的多学科交叉状态明显不同于传统工程设计、接口开发或生物工程学。研究人一机系统与平台之间的关系,有助于国防部改进系统性能、减少平台操作成本和设计成本,提高现有系统对新环境的自适应能力,并加快其推行进程。通过改善人与无人平台之间的协作关系,可以提高系统执行任务的速度,同时降低失误率;而如果在改善人与无人平台协作关系的同时,改进通信接口、提高应用程序的可用性和可靠性,那么还可以减少系统操作人员的需求量,降低在缺乏人一机交互支持的情况下,设计不同系统显示或重新设计无人系统的成本。如果能够较好地理解人、无人平台以及自主性在特殊形势下各自的作用和局限性,那么将有助于设计出不仅能监控越限行为,还能预测新需求的系统,从而提高系统的自适应能力。通过提高人一机交互水平,不仅可以提高无人系统的任务执行能力,还可以提高人类对系统的信任度。我们希望借助于这些有利条件来加快这一技术的推行进程。此外,利用先进的人一机交互人类学方法,可以在无人系统使用过程中捕捉创新机会,从而加快新能力、新用途和最优实践的推行。


机器人与人可以通过远程遥现( romote presence.)和任务代理(taskable agency)这两种方式进行协作。在国防部的大多数应用领域当中,系统都是以拓展作战人员的可达领域,使作战人员能够进入拒止区为目的的。因此,基于联合认知系统内协作类型的特征描述,比基于人与机器人之间的接近性的一般性分类系统能更有效地表述人一机交互概念。


远程遥现是指人通过无人系统来进行远距离实时感知和行动。在遥现编队当中,之所以仍然将人留在控制回路中,一方面是因为受计算机视觉限制,另方面也是为了能够监控未建模或意外情况。然而,留在控制回路中的人并不一定需要为了能在远端环境中工作而充当机器人操作员的角色。编队的工作表现取决于无人系统,因为正是由无人系统来补偿因与机器人协作而造成的感知构建损失(例如,机器人通过环境效应使信息量减少)和最大程度地减少直接控制机器人的工作负荷。


任务代理是指将任务责任全部委派给无人系统。在机动智能体编队中,人在交接完一项任务之后,必须负责处理其他任务,直到无人系统再次返回。较之遥现编队,在任务代理编队中,人与机器人之间的联系较少,但是仍然必须保持人与机器人之间的交互,以确保任务委派正确无误,任务意图被充分理解,并且能在无人系统返回之后在认知层次上对发现成果进行汇总。信任度是影响机动智能体是否能够顺利得以推行的一个主要因素。


究竟选择远程遥现还是任务代理,主要取决于任务的实际情况。这两种的作方式之间有着明显的区别。不同的任务也需要采用不同的策略。例如:在行秘密监视任务时,无人系统可能要在独立工作数天或数星期之后,才能将有价值的数据带回;而在执行特种部队任务时,则可能需要无人系统不间断地执行态势警戒。


在无人系统研究过程当中,有许多人认为远程遥现就是遥操作(Teleoperation),而之所以将人仍然保留在控制回路中,是由于自主能力的不足。事实上特别工作组也发现无人系统经常被认为是“完全自主”或“完全遥操作”的系就这种观点忽视了部分自主能力的价值,如,警戒运动、航路点导航以及感知提示等。利用这些自主能力,只要操作无误,就可以减少操作员的工作负荷,使员能够将全部精力专注在任务执行上。


5. 自然语言理解


与自然语言处理(NLP)密切相关的是能用英语等普通语言与人类进行交流的计算系统的发展( Jurafsky&Mamm,200)。自动语音识别(ASR)是将语音信号转化为文本信息的过程,而自然语言理解(NLU)则是将文本信息转化为计算机能理解的正式表述的过程。人一机交互受自然语言影响。如果给无人系统发出的口头指令不精确,那么委派的内容将会简单化,委派的速度也会随之加快然而,自然语言是一门独立的研究学科。本报告也同样持有这一观点。


人向自主系统发指令时,自然语言是最常态最自然的一种方式。人类一般利用自然语言来为自主系统制定多样化的高级目标和策略,而不是直接进行具  体的遥操作。但是,由于自然语言本身具有一定的不明确性,因此在自然语言的  理解上存在一定的困难。在理解自然语言时,必须结合当时的语境来推断语言  的真实意义。构建一个能理解英语指令和人类语言的自主系统将是一项高技术  难度的挑战。为解决这个问题,我们经常利用传统图形用户界面(GUI)来与计  算系统沟通。然而,在大多数情况下(例如,当用户不方便用手进行操作时),语言仍然是最理想的沟通方式。


6. 多智能体协调


在执行跨机器人/软件智能体/自然人任务时,我们常常会提到多智能体协调这一术语。每个智能体都具有一定的自主性。多个智能体之间可以通过两种方式进行协调,即分布式协调和集中式协调。分布式协调是指多个智能体直接进行互动或交涉;集中式协调是指在规划器的指导下统一进行协调。无论智能体采用哪种方式进行协调,我们都必须确保智能体不仅能够同步化,还能适应环境或任务的动态变化。多智能体同步化经常被理解为多智能体系统之间的主动协同(如机器人足球赛)或非主动协同(如蚂蚁的觅食行为)。虽然协作(人一机协作)与协同之间有一定的关联,但它指的是截然不同的主题,它假定每个智能体都对其他智能体的能力有一定的认知理解能对目标完成进度进行监控,并且能像人类一样进行编队。因此,在研究过程中,多智能体协调与人一机交互是两个相互关联的技术领域,但是一般而言,多智能体协调研究主要侧重于不同配置的智能体协同机制,而人一机交互则侧重于协作认知。本节内容将主要介绍多智能体协调的一个分支领域—一多机器人系统协同。


多无人平台协调至少有四大好处:扩大覆盖面、降低成本、提供冗余能力、实现规范化。与单个平台独立工作相比,多无人平台协调的共同覆盖面更广,持久力更强,不仅可以发挥网络通信中继的作用,还可以为传感器网络覆盖面提供保障。多个低成本无人平台都可以替代单个高成本低可观测平台,也可以替代应对“反介入”和“区域拒止”而必需的高保护级别的系统。在出现噪声、混乱、干扰、伪装/隐蔽欺骗现象时,多个低成本平台并行可以提供冗余能力,即使其中有几个平台正在执行其他任务或出现故障时,最后依然能够顺利地完成任务。通过协调多个专用平台或异构平台,可以减少成本,降低设计要求。例如:在异构平台编队中,专用无人平台可以为其他无人平台加燃料,从而可以达到简化设计、降低平台成本的目的。


五、应用挑战  


1. 系统能力


自动化有助于在满足一致性、可靠性和可预测性的前提下按照编程执行行动,其挑战在于,这些行动通常只适于具备限制条件的态势(即设计人员预见并且软件开发人员并为之编程的态势),以及局限于为感知理解所处环境而使用的有限传感器列阵所提供的测量值。开发既能精确感知,又能准确理解(识别并分类)所检测目标( Object),并确立相互之间的关系以及更主要的系统目标(Goal),是自动化的重大挑战,尤其是在遇到预期外(不在设计范围内)的目标、事件或态势时(Object, Event, or Situation)。智能决策需要这种能力。然而,目前大多数自动化技术都存在脆弱性( Brittleness),换言之,在设计和编程范围内的态势下能够正常使用,但需要人的干预来处理设计和范围以外的态势。


另外,人虽然存在个体差异,但通常具备掌握大局(整体任务目标)、评估态态势(行动上下文)、飞行中思考的能力,以适应新的态势,并不是按照基于规则方式(大多数软件编程如此),更多地依赖于模式识别、心智模型、类比推理(有时在非常抽象的层面上)。然而,人并不擅长快速连贯地处理大量数据,也难以长时间保持注意力。


随着自主能力的不断提升(包括应对更多样的态势和不确定性的能力),我们预测未来系统对人的干预需求将会下降。然而,在可以预见的未来,仍然需要保持一定程度的人一系统交互,其原因包括:


(1)硬件越来越复杂,因而更容易出现故障


(2)软件越来越复杂,因而更容易出现漏洞,脆弱性也随之上升。


(3)这些系统将在对抗环境中使用,因而可能会遇到初始设计人员未曾考的态势。


简言之,随着软硬件通过扩展来适应更多态势或作战模式,并且在越来越复的环境中使用系统,系统的复杂性将明显上升。这会导致以下结果


(1)由于复杂性升高,导致系统的可理解性下降(即为何这样做?


(2)给定态势下执行方式的可预测性下降,向必须与系统交互的人提出了严峻挑战。


(3)为解决前述两个问题而进行人为干预所需的通信链的脆弱性上升。


因此美国空军在可预见的未来,大多数甚至全部作战行动将采取人和自主  合的方式,从而在面对特定敌手时的各种作战条件下完成任务。自主性将用以降低手动数据处理和集成需求,提高速度,并在软硬件能力范围内执行有关行动。我们仍然需要机组人员来进行与自主性高层目标指示有关的指挥与控制。因为机组人员掌握了设计界限和/或情境(上下文)感知范围以外的知识,可以新的态势,并与其他部队和活动进行协调。  了在空军的作战行动中成功实现自


2. 态势感知与人在回路外的执行问题


与自主系统协作时的态势感知是确保系统按照作战目标运行的关键。人监督自动化所面临的关键挑战是人在回路外(Out-of-the-Loop),换言之,检测自动化所出现的问题,或者是自动化控制的系统所出现的问题,人的速度较慢,因此无法快速地完成问题诊断和适当干预。究其原因,是在使用自动化时由以下原因导致态势感知明显下降:


(1)接口不提供必要信息,且通常缺乏系统状态反馈


(2)要求人经常监视的系统(而这也是人并不擅长的一种技能,因为人在监视时每次至多30分钟,警觉性便会下降)。


(3)从主动信息处理切换至被动信息处理  许多航空事故之所以发生,都是因为飞行员不在回路中,因而无法及时地进行适当干预。


此外,飞行员在理解自动化工作内容的问题上(甚至是在正常操作过程中主动尝试理解时)也面临着巨大的挑战。如果对所显示的信息存在误解。有时是因为误读系统模式,或者未能准确地预测系统在给定态势下的反应,将会导致态势感知不精确,进而决策失当。即使是训练有素的飞行员也可能无法充分地理解自动飞行导航与制导控制系统的所有模式,因而会在一定程度上影响与自动化的有效交互。未来系统需要更加注重开发能使所有机组成员保持期望的态势感知水平的自主性方法。


3. 最优工作负荷等级


虽然使用自动化的目标通常是减少手动工作量(进而降低操作的人力需求),但它通常未必能够实现这一目标。这种情况被戏称为“自动化的尴尬( Irony of Automation)。在高工作负荷飞行阶段(例如,飞机起降),它通常会导致工作负荷进一步增大;而在低工作负荷飞行阶段(例如,途中),却能减少工作负荷。由于理解并与自动化进行交互会使需求增大,工作负荷通常从可观测的手动任务切换为不一定可观测的认知任务。未来需要进一步开发易于使用、理解和交互的自主系统。此外,必须特别注重选择哪些任务由自动化处理,或者委派给自主系统执行,确保机组人员收到的是与人的能力相适应的一组连贯任务, 而不是轻易无法实现自动化的离散任务。这种“以人为中心”( Human  Centered)的方法对于实现“人一自主编队”性能最优化至关重要。


4. 人—自主决策集成


自主性通常用以支持人的决策。专家系统或决策支持系统提供决策指导。例如,行动过程制定或评估、目标提示或者对探测到的目标进行分类等。实际上,有效的决策支持存在困难。虽然我们一般假定这种系统能够改善人的决策  尤其是在执行困难任务时,但事实并非如此。证据显示,人一般先采纳系统评估所增加,因而决策时间也会相应延长。因此,辅助决策系统如果存在缺陷,可能  并不一定能够提升整体人/系统决策的精确度和实时性。尽管好的建议有用,但 如果建议失当,则会使决策人犯错,因而整体任务性能将会严重下降。


相反,评判人的决策(例如,指出已规划的行动过程可能存在的问题)的决策支持系统,由于输入是在人做出决策之后(而非之前)发生的,因此能够剔除由人到计算机解决问题的方案偏差。它同样还利用了计算机的一大优势,即快拟人提出的解决方案(例如,行动过程)从面从环境态势的多样性以及对抗行动中,识别出潜在的缺陷或缺点。这将更好地促进人/自动化协同,进而提升整体性能。随着决策智能体和系统未来使用越来越广泛,我们必须特别注重开发认知交互方案来改进(而非干扰)机组人员的决策。此外,我们必须基于人/系统性能的综合输出,认真检验这种系统的作战效能。


5. 自主性中的知情态势信任


为了使机组人员能够有效地与自主系统协同,机组人员必须能够判断自主执行任务的可信任度。这种信任不仅与系统整体可靠性有关,还与根据态势对系统在特殊态势下执行特定任务的性能评估有关。为此,机组人员必须建立知情信任(Informed Trust)—对应用自主能力的时机、程度以及干预时间进行精确评估。信任度的校准一从过度信任(自满)到信任不足(抵触)可能比较困难,应当基于以下几个因素:


(1)系统因素。包括整体有效性和可靠性;可靠性主观评估;发生系统故障  (或在态势中无法做出适当的行动),导致快速失去信任且在问题出现后信任恢复缓慢的近因( Recency);系统的可理解性和可预测性、及时性与完整性。


(2)个体因素。包括个体执行任务的能力、整体信任意愿以及其他个人特征。


(3)态势因素。包括时间约束、工作负荷、必要工作,及关注其他竞争性任务的需求。


过去,机组人员就以下问题单独进行决策:


(1)信息。对信息输入的信任度(例如,基于信息源的可信度、传感器的可靠性、信息的及时性,以及来自其他信息源的确认)。


(2)他人。对其他队友的信任度。


(3)自动化。对特定自动化工具的信任度。


然而,随着自主系统在未来的普及,单独实体之间的界限也将变得模糊。自主系统可以作为信息源,也可以是处理信息并执行行动的系统,或者是机组人员交互的对象。必须特别注意,确保机组人员能够在充分了解有关信息的前提下建立一定的信任,确定对自主系统在特定任务、特定态势、特定时刻等条件下当保有的信任度。


六、研发挑战


1.  自主性的态势模型


为了使自主性获得成功,系统必须超越简单计算逻辑,能够在更完整地理断变化的任务和环境的基础上进行推理。这种系统需要考虑


(1)表示当前态势、融合多感知输入、保证态势理解和预测,从而支持的计算机模型。


(2)按照已学习的态势分类(对应于存储的计划与行动)映射当前模式匹配。


(3)确定对相关信息的注意力分配、信息解释,以及数据不完整时,缺失信息默认值的预期态势模型。


(4)表示态势表达中不确定性的上下文模型。


(5)指导信息搜索和解释的基于目标的行为(目标驱动的行为)。


(6)识别关键环境提示,映射至不同态势类别的能力。


(7)根据态势类别相对状态和未来状态预测,处理多项目标和动态目标优先级重划分实现数据驱动行为的能力。


(8)在模式匹配与现有态势类别匹配不理想时,进行推理的系统、环境与其他参与方(如队友、敌手、平民等)的模型。


(9)态势类别与模型的主动学习与提炼。


(10)制订计划以实现目标并按需求进行动态重规划的能力。


(11)按需求优化环境、系统及其他来源的数据釆集,以支持态势模型持续需求的能力。


(12)与操作员或其他自主系统就上述任意功能(例如,目标统一、态势模型、决策、功能分配与优先级划分计划等)进行交互,以实现协同获准行动的能力。


2.  学习系统


在开发系统自主性的过程中,使用学习系统既有优点也有不足。为了使这些学习系统成功地得到应用,我们必须弥补这些不足。以积极的眼光看,应用基于学习算法的系统能够应对各种情境因素(例如,环境因素、任务相关因素、敌手),生成能够应对更多样的态势的鲁棒性方案。在这种情况下,设计人员和开发人员不需要提前预测所有潜在的条件(这从理论和实践的角度来看都十分困  难),或者预先指定在各种可能的条件组合下应当采取的措施。相反,他们创建了一种结构,使自主性进行自我组织和学习,并适应不断变化的态势。这要求自主性可发人理解学习和推理。在人的认知和生物学的启发下,我们得出有以下几种方法可用:


(1)模糊逻辑( Fuzzylogic)。提供将一个或多个连续状态变量映射至相应类别以进行推理和决策的框架


(2)神经网络( NeuralNetworks)。网络利用通过程序在大型典型案例数据  库的训练过程中学习到的可变互联权重来进行知识表达的算术框架,学习解决方案。


(3)遗传与进化算法(Genetic and Evolutionary Algorithms)。在进化遗传的启发下采用重复仿真的方法,缩小潜在选项的范围,选择最优解决方案。


以上每种方法都可结合适当的系统架构来应对自主性挑战,达到知识获取、编译、表达存储、处理和提取的目的。由于现实环境存在内在的复杂性,这些方法的合理性可能远远超过那些借由专家来获取紧急情况的大量细节信息的方法。


然而,学习方法也不无挑战。这些方法通常要求开展大量的工作来确定提供给学习系统的相关参数和信息,并创建学习与组织输出的适当系统架构。此外,学习系统还提出了以下新的挑战:


(1)可理解性(Understandability)。这种系统的逻辑与行为可能对于机组人员很难理解,而且系统开发人员通常无法完全理解自主性的行为方式—尽管我们可以采用相关方法来获取描述算法“黑盒子”内部主要特征的规则。然而这些意见可能并不完整,也不能表达系统行为的复杂全貌。


(2)确认(Validation)。如果美国空军的安全关键作战行动接受了利用学习技术开发的自主系统,那么成功验证和确认开发这些系统的方法就非常关键。般而言,目前的技术还不足以应对这一挑战。


(3)标准化(Standardization)。如果学习算法今后能够在实践中继续演化那么在一致性的问题上将会遇到新的重大挑战。系统是否会为了保证一定程度的一致性而将学习到的经验传授给其他系统呢?每种情况下保证学习到适当的经验的标准是什么?这些经验对于其他环境是否具有广泛性?不同系统的行为方式是否不同(要求机组人员能够理解和预测自主性的运行方式,进而以适当的方式与之交互并正确地调整对自主性的信任度)?如果训练期结束后学习算法冻结,那么这些算法是否会与其他方法一样而遭遇脆弱性的问题,因而无法在不断变化的现实环境下学习和自适应?


如果利用学习系统来开发未来的自主系统,那么我们必须解决这些挑战。


3.  验证与确认


美国空军先进系统软件的验证与确认对于保证系统能够安全而一致地按照预期运行十分关键。为此,我们需要引入新的自主软件的验证与确认方法。传统方法以需求跟踪为基础,无法应对自主性软件的复杂性。十分多样的潜在状态和状态组合能够进行相互测试,而临界条件却难以理解。系统支持自主性交互的能力是成功实现自主性的重要条件,确认测试必须明确予以考虑。


4. 网络


自主性可能能够应对美国空军作战行动的许多挑战,但也和其他软件系统样,容易受到网络攻击。鉴于自主性的复杂性检测漏洞或故意嵌入的恶意软件更加困难。和自我健康监视系统一样,提高环境感知有助于应对这一挑战。此外,保证网络弹性的方法(包括检测、对抗或者应对自主性和系统其余内嵌部分的网络攻击的能力)非常重要。网络弹性并不是在开发完成之后可以在加入系统的一种特性。相反,在开发任何自主系统方法的过程中我们必须考虑网络弹性的因素。《赛博视图2025》( Cyber vision2025)更为完整地探讨了网络对抗环境下任务保障的相关问题。




来源:人机与认知实验室

文章推荐
图片展示
图片展示

Copyright©2016-2021 沿海文化科技(广东)有限公司 粤ICP备15115825号

地址:广东省珠海市香洲区九洲大道东1298号东亚大厦A座10楼

Address: 10th Floor, Block A, Dongya Building, 1298 Jiuzhou Avenue East, Xiangzhou District, Zhuhai City, Guangdong Province

添加微信好友,详细了解产品
使用企业微信
“扫一扫”加入群聊
复制成功
添加微信好友,详细了解产品
我知道了