《人工智能军事应用的国际法风险,国际法论文.docx》由会员分享,可在线阅读,更多相关《人工智能军事应用的国际法风险,国际法论文.docx(12页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、人工智能军事应用的国际法风险,国际法论文内容摘要:人工智能在引发军事领域革命性变革的同时,也对现行国际法体系产生很大影响。其内在原因是人工智能武器的四大特性,即自主性、非理智性、不可靠性及不可预测性。人工智能军事应用的国际法风险主要来自下面五个方面,即人工智能武器作为作战手段、人工智能取代人类施行军事决策、人工智能本身的安全缺陷、人工智能遭受损害、人工智能或引发军备竞赛。防备由此而来的国际法风险,应当设立管理人工智能军事应用的国际组织,制定有关人工智能军事应用的国际规则,加强人工智能军事应用的国际学术沟通。 本文关键词语:人工智能,军事应用,国际法 当前,世界各军事强国都致力于占据人工智能军事
2、应用的制高点。人工智能在引发军事领域革命性变革的同时,也对现行国际法体系产生很大影响。充分认识人工智能军事应用的国际法风险,将人工智能军事应用纳入现有国际法体系加以防备,是国际社会面临的一个重大课题。 一、人工智能军事应用引发国际法风险的内在原因 当前,人工智能的军事应用已基本覆盖所有的军事领域,包括武器装备、后勤保障、作战指挥、军事训练等等。但是,人工智能的军事应用会引发人类社会普遍担忧,以致需要警觉其违背国际法的风险。究其根本原因,是由于人工智能本身所固有的几个特性。 一人工智能武器的自主性 自主性,即自个做主的特性。人工智能武器属于部分自主或完全自主的武器系统,具有 排除人类干涉或控制而
3、自行观察、判定、决策、行动 的特征。而人工智能武器十分是自主武器固然由人研发和生产,但在进入使用阶段后,将摆脱人的操控而自主行事。也就是讲,自主武器能够在无人直接干预的条件下进行军事决策,决定什么时候发起攻击、攻击哪个目的。现行国际法的适用规则中,没有考虑武器装备的自主性问题。人工智能武器由于自主性的特点,而不能适用于现行国际法。比方,在不受人控制的情况下,人工智能武器可能会因自主作出决定,而造成滥杀无辜的后果。再比方,当人工智能武器的自主决定出现错误而违背国际法规则时,其责任怎样断定?其违法责任由谁承当?是机器还是制造商?是技术开发者还是武器的使用者? 二人工智能武器的非理智性 理智,是人类
4、特有的识别是非、利害关系及控制自个行为的能力,是人类的本质属性之一。人工智能固然能够对人的意识、思维的信息处理经过进行模拟,像人一样考虑,甚至超过人的智能,但人工智能不是人的智能,更不能代替人的智能,由于其永远不可能拥有人的理智性。而国际法是对有关国际社会的行为规范,其对象是具有理智的人类。人类正是基于本身的理智性,制定国际法,以对被以为有违人类共同利益的行为加以限制,并通过本身识别是非、利害关系及控制自个行为的能力,来遵守国际法。由于人工智能不具备人类独有的理智,不会自主识别是非、利害关系及控制自个行为的能力,因而在军事领域,部分甚至完全用人工智能代替人类,必将带来宏大的违法风险。 三人工智
5、能武器的不可靠性 可靠性,是指元件、产品、系统在一定条件下无故障执行指定功能的能力或可能性。人工智能应用于军事领域,主要是作为一种赋能系统而发挥功用的,其本质也是作为一种元件、一套系统而存在的。因而,人工智能也存在可靠性问题。在军事领域,人工智能武器的不可靠性,表如今可能会出现功能异化,即由人类赋予的原有智能发生变化。在战场上,这种智能异化可能导致目的辨别错误、不恰当的攻击、军事决策失误等严重事故,并由此引发违背国际法的风险。 四人工智能武器的不可预测性 人工智能武器的不可预测性,来自于其自我学习功能。先进的人工智能能够利用神经网络,让系统基于大量数据实现自我学习和自我推理。由于这种深度学习系
6、统的复杂性,程序人员和工程师往往无法准确预测人工智能武器系统通过学习能够获得何种能力,或者讲,无法预见有学习能力的人工智能武器怎样应对将来情况,甚至无法解释系统为什么作出该决定。因而,把这种具有自我学习能力的人工智能与致命性武器结合起来,势必带来宏大的系统失灵风险。届时,军事指挥官不再能够控制武器乃至整个军事行动。一旦出现这种情况,其后果可能包括大规模自相残杀、平民伤亡,或者出现冲突升级等。 二、人工智能军事应用可能引发的主要国际法风险 根据人工智能的特性,其在军事上的应用,包括以自主武器为作战手段、人工智能取代人类进行军事决策等。但人工智能的安全性缺陷、遭受攻击或毁坏,以及有可能造成的军备竞
7、赛,都将引发主要国际法风险。 一自主武器作为作战手段可能引发的国际法风险 自主武器是基于人工智能的作战平台、目的辨别、危险监控与态势感悟、数据处理和自主决策的综合运用,是人工智能武器的最高形式。现行战争法对武器系统、作战手段和作战方式方法有着严格规范,包括使用的原则、规则、规章制度等。自主武器系统作为一种作战手段,毫无疑问应该适用于战争法的有关规则。而其使用能否会造成违背国际法的后果,当前国际社会尚未构成权威性结论,更没有在其禁止或限制使用方面构成共鸣。但是,不少国家及国际组织已经开场从国际法角度对自主武器进行严格审视,并对其可能的违法情境提出很多质疑。当下,国际社会主流意见以为,鉴于自主武器
8、能够在无人干涉情况下施行搜索、辨别并选定攻击目的,一旦出现对战斗员和平民的误判,将有违国际人道法原则。更为严重的是,假如赋予人工智能武器系统 自主开火权 ,那么,人与武器的关系将发生质变, 机器代理人战争 将成为人类社会不可承受之重。 二人工智能取代人类进行军事决策可能引发的国际法风险 当前,人工智能已经能够针对极为复杂的任务进行高效率的信息搜集和优化处理。人工智能系统应用于军事指挥的模拟及辅助决策等复杂任务领域,其强大的计算能力能够帮助人类在军事决策中选择最优方案。随着人工智能技术的不断发展,人类在军事指挥系统中将越来越依靠人工智能,甚至完全依靠其进行指挥和执行作战任务。 战争是政治的继续。
9、 人类历史上,任何战争,包括小规模武装冲突,敌对双方的决策者都必须从政治需要出发,综合考虑多种因素与规则,才能作出符合政治常理的军事决断。随着大数据和人工智能技术在军事领域的深度应用,其对军事决策经过将产生重大影响。假如军事决策完全或部分交由人工智能,很可能由于决策失误而引发重大的政治风险。 2021年,北约科学和技术组织把 使用大数据和人工智能工具进行军事决策 作为其主要研究课题之一。假如人类把军事决策权完全交由人工智能系统,后果将不堪设想,其给国际法体系所造成的冲击,甚至超过直接施行攻击的自主武器带来的冲击。 三人工智能的安全性缺陷可能引发的国际法风险 人工智能武器的全面应用,还可能对武装
10、冲突法的区分原则、比例原则等,构成重大挑战和威胁。这是由于,在智能武器的使用经过中,作为人工智能核心的算法和数据都有潜在的安全风险。从编程的角度看,任何代码都是由人编写的,任何人都无法确保程序绝对安全、可靠、可控、可信;从数据的角度看,人工智能武器的应用依靠于大数据,而军事数据的获取、加工、存储和使用等环节,都存在质量和安全风险,也就是讲,任何一个环节的纰漏都可能影响算法的判定,进而影响武器的使用。 由此可见,人工智能武器因算法和数据风险而不可避免地产生一定程度的不可预测性和不确定性。当数据和算法因各种原因发生错误时,人工智能武器极有可能不分青红皂白攻击平民和民用目的,以及造成其他不必要的附带
11、毁伤,进而违犯国际人道法体系的基本精神。 除此之外,即便算法和数据都是正确的,人工智能武器也存在天然缺陷:即无法理解人类社会的感情、情绪、习惯等,因此无法像人一样考虑和行动。例如,怎样判定负伤的战斗员能否丧失战斗力、怎样解读不同环境下人的肢体语言等问题,都难以通过单一的运算法则来解决,这使得人工智能武器无法像人一样对特定情境作出合理判定。 四人工智能系统遭攻击和毁坏时可能引发的国际法风险 在将来战争中,既然人工智能作为一种战术技术手段,其本身无疑会成为敌对双方互相攻击和毁坏的重要目的,且置身于战场环境的人工智能系统在自我防护及抗打击方面,不仅不具备任何超过其他武器的能力,反而愈加脆弱,极易发生
12、故障。一旦人工智能系统遭到攻击,其所造成的损害及带来的法律风险,可能远远大于非人工智能目的。 原因在于,对人工智能系统的攻击与毁坏,除削弱对方的作战能力外,还有可能造成不同于传统人道灾难的严重后果。比方,当人工智能的算法遭到攻击时,数据库可能被篡改,网络联络可能被操纵。当数据库或算法被攻击时,运算和更新就会偏离估计的轨道,构成恶性算法,在应用时无法辨识敌我;当远程操控环节或人工智能决策程序被攻击时,己方的武器就可能变成敌人的武器。网络、人工智能和移动设施的融合,会让网络攻击从虚拟攻击升级为物理攻击。因而,人工智能系统遭遇攻击所造成的人道灾难,将严重冲击现有国际人道主义法规体系。 五人工智能领域
13、的军备竞赛冲击现行国际军控规则 由于人工智能在军事领域的宏大潜在价值,促使世界各军事强国纷纷开发各种智能武器平台,人工智能领域的军备竞赛已初露端倪。 当前,美国国防部已经利用人工智能加强网络防御能力。美国MAVEN项目组整合了大量人工智能系统,用于搜集和处理情报;同时,美国还在战斗层面,大量融合机器学习、人机战斗编组等人工智能要素。俄罗斯军事工业委员会计划,到2030年将战斗中远程操控和自动机器人平台的比例提高至百分之三十。1其他面临人力短缺和安全挑战的国家,如日本、以色列等,也很可能步其后尘。 固然人工智能武器在安全性问题、伦理问题、责任追溯问题等都未得到解决,但美国智库普遍主张,为确保军事
14、领先优势,美国在人工智能武器上不应自我设限,而应全力以赴、率先研发、率先应用。2021年12月,中国在联合国第五届特定常规武器大会上提交立场文件,呼吁将全自动武器纳入国际法的管制之下。2但是,世界各国尚未就此达成共鸣。 人工智能在军事领域应用或引发的军备竞赛,给本已特别脆弱的国际军控体系增加了新的不确定因素。对此,国际社会必须未雨绸缪,早作准备,通过制定新的军控规则,及时对人工智能武器的研制、生产和使用作出必要的禁止或限制性规范。 三、人工智能军事应用国际法风险的防备 对人工智能国际法风险的防备可谓任重道远。为了人类社会的共同利益,国际社会理应给以足够重视,尽早采取防备措施。 一建立一个国际组
15、织,统一处理人工智能军事应用的国际法风险 联合国曾经于2020年和2021年就人工智能武器召开两次非正式会议,并于2021年12月16日在关于(特定常规武器公约的联合国会议上,成立致命性自主武器系统LAWS专家组GGE,专门负责研究致命性自主武器领域的新兴技术,并评估其对国际和平与安全的影响,进而为国际治理提出建议。3 但是,面对世界军事强国在人工智能武器研发方面盛气凌人的形势,当前的国际干涉机制不免有些无能为力。2022年2月11日,美国总统特朗普签署行政命令启动 美国人工智能计划 后仅仅一天,美国国防部网站便颁布了(2021年国防部人工智能战略内容摘要 利用人工智能促进安全与繁荣的文件,对
16、人工智能在军事领域应用进行战略规划与行动部署。文件分析了美国国防部在人工智能领域面临的战略形势,确定了应用人工智能的目的,说明了加强人工智能能力的途径和措施。 因而,当务之急,应尽早建立一个关于人工智能的专业性国际组织,或作为联合国的一个下属机构,或作为一个多边机构,启动对人工智能军事应用的管理。其职能是为人工智能军事应用问题提供一个国际协商平台,以便就此展开充分讨论,并逐步积累共鸣,为人工智能军事应用的管控创造条件。 二着手制定国际规则,为人工智能军事应用提供国际法根据 当下,对于人工智能军事应用的前景及其影响,国际社会意见纷纭,莫衷一是。2021年,曾经有三千多名机器人和人工智能专家共同签
17、发了一封信,呼吁禁止自主武器。4很多非组织,如国际人权观察组织、红十字会国际委员会等也以为,各国应当预先禁止全自主武器,以免使用时危及平民;并呼吁各国遵守(日内瓦公约第一附加议定书第36条:在使用或发展该类武器人工智能武器时,预先对其后果和对国际人道法的影响作出判定。 但是,由于人工智能技术在军事应用中的潜在宏大价值,以及出于争夺军事技术制高点和保持绝对军事优势的需要,世界军事强国反而加快自主武器的研发力度,竭力争夺和维护在该领域的优势地位。因而,针对人工智能武器,必须制定出权威性的国际规则。早日把人工智能武器的军备控制提上国际议事日程,是国际社会面临的一个紧迫课题。 三加强国际学术沟通,为人
18、工智能军事应用的国际法风险防备提供理论指导 人工智能在军事领域的应用尚处于初始阶段。对于其所发挥的功用以及能给现有国际法体系造成的冲击,都难以预测料想。 为了破解人工智能应用于军事领域的大量未知,躲避可能造成的国际法风险,必须加强人工智能军事应用的国际学术沟通。通过各种国际组织以及多边及双边的学术平台,对人工智能军事应用的相关问题,如应用领域、应用前景、应用规则、风险挑战、负面影响、法律风险、管控措施等,展开充分讨论,达成共鸣,为国际社会制定有关人工智能军事应用的国际条约提供理论指导。 我们国家作为一个负责任的大国和联合国常任理事国,应无条件地支持和介入上述学术沟通活动,在争取人工智能军事应用话语权的同时,为最终解决人工智能军事应用的有关问题及防备其国际法风险,提供中国智慧与中国方案。