第7章人工智能应用伦理课件.pptx

上传人:春哥&#****71; 文档编号:15608277 上传时间:2022-05-13 格式:PPTX 页数:25 大小:4.73MB
返回 下载 相关 举报
第7章人工智能应用伦理课件.pptx_第1页
第1页 / 共25页
第7章人工智能应用伦理课件.pptx_第2页
第2页 / 共25页
点击查看更多>>
资源描述

《第7章人工智能应用伦理课件.pptx》由会员分享,可在线阅读,更多相关《第7章人工智能应用伦理课件.pptx(25页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、人工智能伦理导论简明课件莫宏伟 教授手机+微信: 版权所有,禁止与一切教学无关用途。 黑龙江省多学科协同认知人工智能技术与应用重点实验室 主任哈尔滨工程大学智能科学与工程学院第7章人工智能应用伦理第七章 人工智能应用伦理第7章人工智能应用伦理 学习和理解人工智能医疗中的伦理问题。 学习和理解人工智能教育中的伦理问题。 学习和理解人工智能军事中的伦理问题。学习要点第7章人工智能应用伦理随着人工智能技术的发展,尤其是深度学习技术的发展,使得人工智能在制造、农业、医疗、教育、军事、网络、商业、金融甚至文艺等各个领域都开始广泛使用。就像基因、纳米、生命等科学技术一样,不可避免地产生伦理问题。因为人工智

2、能涉及领域极为广泛,本章主要介绍三个比较典型的应用领域,即医疗、教育和军事领域。这三个领域与人类本身直接密切相关,直接影响人的健康、教育乃至生命。通过本章的学习,具体而深入地认识和理解人工智能技术在应用过程中产生的伦理问题。学习导言第7章人工智能应用伦理7.1.1 人工智能应用与医学伦理7.1 7.1 人工智能医疗伦理人工智能医疗伦理医学伦理学是运用伦理学的理论和研究方法,以人、社会和自然为研究对象,尊守病人利益第一、尊重病人、公平公正等基本原则的应用伦理学分支。目的之一是用来评价医务人员的医疗行为。目的之二是评价人类对医学的研究是否符合道德标准。医疗伦理学主要有三个最基本的问题:由于医疗利益

3、冲突而提出的“应该”问题。由于医学伦理学难题而引发的“应该”问题。由于医学伦理学观点理论不一致产生的“应该”问题。第7章人工智能应用伦理7.1.1 人工智能应用与医学伦理7.1 7.1 人工智能医疗伦理人工智能医疗伦理 人工智能医疗是利用人工智能技术帮助甚至于代替医疗工作者进行诊断与治疗的新兴医疗科学技术。 随着人工智能的快速发展,人工智能技术已经开始被大规模应用于医疗相关行业中,在辅助诊断、医学影像识别以及疾病的预防检测等方面取得长足进展。通过大数据的采集、分析以及应用。 人工智能能够更快、更准确地解决临床诊断问题,并提供更精确的治疗方案。第7章人工智能应用伦理人工智能医疗的伦理问题7.1

4、7.1 人工智能医疗伦理人工智能医疗伦理1.隐私和保密没有经过患者授权,任何组织或个人不得将患者数据挪于他用,更不得利用患者数据牟取个人私利,这是对患者隐私数据保护最基本的道德要求。2.算法歧视和偏见当设计者存在某种特定疾病、性别、种族等偏见和歧视时,人的主观判断和某些观念可能融入其中,智能医疗系统产生的结果就会复制并放大这种偏见和歧视。第7章人工智能应用伦理人工智能医疗的伦理问题7.1 7.1 人工智能医疗伦理人工智能医疗伦理3.依赖性 医疗机构过多的使用机器,是否导致病人缺乏人性关怀?会不会造成新的心理和生理依赖性?这是一个新的智能医疗伦理问题,传统医疗领域并不存在这类问题。4.责任归属

5、智能诊疗的责任归属问题势必要有更明确的规范,毕竟惩罚一部机器甚至销毁一位超级智能医生对于所造成的伤害都没有实质上的帮助,如何能够透过建立完整的责任制度来让技术更精准、管理监督更到位、使用人更信任,减少事故避免憾事才是人类福祉。第7章人工智能应用伦理人工智能医疗的伦理问题7.1 7.1 人工智能医疗伦理人工智能医疗伦理第7章人工智能应用伦理人工智能医疗伦理原则7.1 7.1 人工智能医疗伦理人工智能医疗伦理人工智能医疗应用应当遵守基本的伦理原则,这些基本原则一方面符合传统医学伦理要求,另一方面也体现人工智能技术在医疗方面的应用而带来的特殊性。世界卫生组织(WHO)于2021年 6 月 28 日发

6、布了第一份关于在医疗卫生中使用人工智能的指南医疗卫生中人工智能的伦理和管治。 保护人类自主权 人工智能技术不应该伤害人类 确保透明度、可解释性和可理解性 问责制 确保包容性和公平性 监控和评估人工智能医疗系统可持续性第7章人工智能应用伦理7.2.1 人工智能教育与人工智能教育伦理7.2 7.2 人工智能教育伦理人工智能教育伦理人工智能教育有以下三方面含义:泛指对社会各类非专业对象或各级各类受教育者开展人工智能的学习和理解教育教学。人工智能专业教育教学。也就是经国家教育部批准高校设立的人工智专业,培养掌握一定理论、方法和技术的专业人才。人工智能技术在教育领域的应用,辅助提升教学手段、方法,包括如

7、何将人工智能技术用于人工智能教学本身,也称为智能教育或智能技术辅助教育。第7章人工智能应用伦理7.2.1 人工智能教育与人工智能教育伦理7.2 7.2 人工智能教育伦理人工智能教育伦理 上述三个方面都涉及伦理问题。 前两个方面涉及的伦理可以称为人工智能内容或知识教育伦理。 第三个方面涉及的伦理问题就是智能教育技术伦理。 三方面问题统称为人工智能教育伦理。 第7章人工智能应用伦理7.2.2 智能教育技术伦理问题7.2 7.2 人工智能教育伦理人工智能教育伦理人工智能教育技术及系统,能够凭借其高度智能化、自动化和高精准性的数据分析处理能力与主动学习能力,承担一部分过去只有教师、管理者才能够胜任的工

8、作。但也会由此引发的第一类智能教育技术伦理问题主要包括如下十个方面。 数据引发隐私问题 算法导致偏见问题 算法导致教育形式化问题 算法导致学生同质化发展问题 算法导致教育内容狭隘化 算法导致教育被控制的问题 算法鸿沟导致教育不能及时被化解 移植开源代码和现成算法导致教育异化的问题 智能教育系统降低学生学习体验和认知能力 教育产品决策能力与监督问题第7章人工智能应用伦理7.2.3人工智能教育面临的利益相关伦理问题7.2 7.2 人工智能教育伦理人工智能教育伦理人工智能教育面临的利益相关伦理问题,也就是第二类人工智能教育伦理问题,主要包括如下几方面。 系统创建者伦理问题 教师伦理问题 监测员伦理问

9、题 教育公平问题 对教育正向价值的压制第7章人工智能应用伦理7.2.4 人工智能伦理教育7.2 7.2 人工智能教育伦理人工智能教育伦理人工智能伦理教育首先要明确人工智能教育的本质是人类命运共同体理念指导下培养未来社会主义需要的复合型人才及新人类的教育。人工智能教育应使受教育者充分理解人工智能对未来人类社会经济、科技和文明发展的重要作用,具备未来智能社会发展需要的人工智能理念和素养。使受教育者认识到智能机器对人类生命存在意义和价值的挑战,并反思人之为人的意义,并将反思与国家、社会发展、人类进化和人类文明整体升级相融合,成为关心人类命运的、未来社会主义新人类。鉴于人工智能对人类社会的整体性影响,

10、全学科、全专业、全社会都要开展人工智能教育。人工智能教育要从宇宙大历史和人类命运共同体的高度使学生理解人工智能对于国家、社会发展和人类未来命运的意义。第7章人工智能应用伦理7.2.4 人工智能伦理教育7.2 7.2 人工智能教育伦理人工智能教育伦理推进人工智能伦理教育体系的构建,为人工智能教育提供伦理支持,不仅是人工智能技术发展的需要,也是人工智能教育发展的应然要求。人工智能伦理教育主要从以下几方面展开。 建构高尚的人工智能科技伦理 制定人工智能教育伦理规则 搭建人工智能教育伦理规范体系 开展人类命运共同体理念指导下的人工智能伦理教育第7章人工智能应用伦理7.3.1智能军事伦理问题7.37.3

11、 智能军事伦理智能军事伦理 人工智能技术除了可以为改善人类生活、创造更好的社会环境提供帮助,在军事领域,人工智能一直在发挥着巨大作用,甚至远远超出民用领域。军事专家认为,未来的战争是以人工智能为基础的高技术智能武器战争,非接触、超视距、精确制导,御敌于千里之外,杀人于无形。以无人机、无人艇、水下机器人及其群体等组成的智能无人作战武器系统,不仅在战争中可以有效打击敌人,也给很多国家和地区的人们造成了伤亡和痛苦,造成人道主义问题。某种程度上,军事领域的人工智能是一种破坏性力量。第7章人工智能应用伦理7.37.3 智能军事伦理智能军事伦理面对智能武器在现实中造成的人道主义等伦理危机,如何在战争中,避

12、免智能武器应用带来的人道主义等伦理问题,是摆在各国军事武器专家和指挥家面前的重要课题。第7章人工智能应用伦理7.3.2 战斗机器人会更讲道德吗7.37.3 智能军事伦理智能军事伦理有军事专家认为,在战场上,“战斗机器人可以比人类士兵更遵守道德”,它们可以作出更符合伦理道德的决定。专家们为战斗机器人所编写的程序可以包括战争法的种种规定以及一些复杂的伦理问题:何时可以向坦克开火,如何区分平民、伤患、投降者和恐怖分子等等。第7章人工智能应用伦理7.3.3 战斗机器人与伦理算法7.37.3 智能军事伦理智能军事伦理 为了避免机器人因程序混乱而敌我不分、滥杀无辜或造成巨大破坏,不仅需要制定人道规则控制管

13、理作战机器人,更应该制定通用的人道主义规则植入作战机器人系统中。 设计相应的“伦理算法”并非一件容易的事。 智能武器系统里的伦理算法目前还没有定义。 复杂的情况即使有经验的部队在战斗中都难以区分,目前还没有一种运算推理系统可以处理那些不适合致命打击的地区。第7章人工智能应用伦理7.3.4 人机协同作战中的监督与信任7.37.3 智能军事伦理智能军事伦理由于智能武器中的智能算法无法使武器具备人类“牺牲精神”,也无法拥有专业战士的思维模式和道德观念。由人类士兵和机器士兵组成的协同作战小组,可能比单纯由人类战士组成战斗小组采取更符合伦理的行动。比如,机器人可以利用装备视频摄像机记录和报告战场上的行动

14、。这样,它们将起到监督和威慑的作用,对抗反伦理行为。但是,这种监督也可能起到相反的效果,如果战士知道它们被机器伙伴监视,就可能不再信任他们,这样影响战斗小组的团结。第7章人工智能应用伦理7.3.5智能武器模糊了战争责任7.37.3 智能军事伦理智能军事伦理以无人机为代表的智能武器在过去一系列反恐战争中在消灭恐怖分子的同时,也夺去了成千上万无辜平民百姓的生命。这些比较极端的智能武器造成的后果,说明了一种不道德的现象-即智能作战机器可能缓解人类在戕害同类时的负罪感。使用智能武器完成某个战斗任务使得智能机器的设计者和操作者都免于对该项行动的责任,从而降低操控者在操控智能武器滥杀无辜时的负罪感,导致更

15、多无辜者死于非命。第7章人工智能应用伦理7.3.6自主武器系统的可靠性7.37.3 智能军事伦理智能军事伦理有三种情况都可能造成自主武器系统可靠性降低,从而造成相应的伦理问题。第一种情况是自主武器系统自主性过高。第二种情况是自主武器系统“智商不足”导致的自主作战受限。第三种情况就是错误导致的可靠性和安全性问题。第7章人工智能应用伦理7.47.4规范人工智能战争的全球协议规范人工智能战争的全球协议在这个高风险的时代,趁着人工智能和其他新兴技术还未完全用于发动战争,人类应选择合适的时机达成规范战争行为的全球协议。 在基于人工智能的军事决策中,纳入人权、问责和保护平民等道德准则。 让人类能够控制自主

16、武器系统。 在核作战指挥和控制系统内不设置人工智能算法。 各国同意不通过常规数据攻击或人工智能驱动的网络武器、无端窃取重要商业数据或破坏电网、宽带网络、金融网络或医疗设施,这样来保护关键的基础设施。 提高智能武器系统的安全性及透明度。 建立有效的监督机制,确保各国遵守国际协议。第7章人工智能应用伦理7.5 7.5 本章小结本章小结医疗人工智能伦理问题主要是涉及利用人工智能技术诊疗时给人类可能带来的隐私、责任等问题。人工智能教育伦理主要是利用人工智能技术在教学、管理使用过程中给学生、教师以及相关人员带来的可能影响。人工智能军事伦理主要是从自主武器系统的使用带来的伦理问题,包括战争责任归属等问题。通过这三个领域的人工智能应用伦理问题的学习,深入理解人工智能伦理的内涵,有助于思考如何在实际中掌控好人工智能伦理原则。第7章人工智能应用伦理

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 大学资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁