【标准推介】关注人工智能伦理风险 促进新技术应用
中技协标准T/TMAC 120-2024 《人工智能产品伦理风险管理指南》
简介:
近年人工智能伦理风险事件频发,人工智能伦理问题成为社会关注重点问题之一。2014 年,美国某公司的实验性招聘工具使用人工智能给求职者打分,通过观察 10 年来提交给公司的简历中的模式来审查应聘者。操作过程中会对“女性”标识自动降级,“算法歧视”问题导致女性求职者的录取概率大幅降低。2017 年 12 月,一个名为“DeepFakes”的用户在 Reddit 上发布了一个“假视频”,将一个电影明星的脸嫁接到了一部电影女主角身上,还将视频上传至该网站,这种“换脸”技术将会对社会产生很多负面的影响。 人工智能伦理国内外政策法规逐步出台,管理机制逐渐建立。国际方面,欧盟于 2019 年正式发布《可信人工智能伦理指南》,同年欧盟议会正式通过《人工智能、机器人和相关技术的伦理框架》,用于规范人工智能系统在欧盟其成员国范围内的相关伦理风险。2021 年 11 月,联合国教科文组织发布《人工智能伦理建议书》,该建议书为全球首个针对人工智能提出的伦理规范框架。国内方面,为进一步加强人工智能相关法律、伦理、标准和社会问题研究,深入参与人工智能相关治理的国际交流合作,科技部于 2019 年 2 月正式成立新一代人工智能治理专业委员会,该专委会于 2021 年 9 月正式发布《新一代人工智能伦理规范》。2022年 3 月 20 日,国务院办公厅发布《关于加强科技伦理治理的意见》。 人工智能利益相关方缺乏伦理风险管理机制。在管理方面,部分利益相关方内部未设立对应的风险评估机制与相关机构,风险管理与风险评估流程缺乏科学依据。在标准方面,ISO 方面对人工智能伦理原则方面已展开初步研究,目前缺乏人工智能伦理风险管理相关标准。
亮点:
本文件针对人工智能产品的伦理风险,从数据、算法、应用管理等三方面开展人工智能伦理风险分析,并依据科技部《新一代人工智能伦理规范》等文件,提出人工智能产品相关的伦理风险管理体系,为人工智能技术、产品和服务利益相关方在开发和使用过程中提供一定的伦理指导依据。 本文件给出了人工智能产品伦理风险管理实施框架、原则、过程、保障机制和控制措施。 本文件适用于指导人工智能产品利益相关方识别、管理、评估人工智能产品的伦理风险。





