首页 > 协会动态 >

IAPP协会2024《人工智能治理的实践应用报告》中文版上线!

2025-04-25

F953027A-91B8-4cfa-B15A-14F8C0DDF244.png



主要内容


  • 第一部分 人工智能与治理认知框架

  • 第二部分 数据治理的关键挑战

  • 第三部分 隐私权与数据保护的实践困局

  • 第四部分 算法透明性与可解释性难题

  • 第五部分 技术偏见与公平性挑战

  • 第六部分 系统安全性与稳定性挑战

  • 第七部分 人工智能安全治理体系

  • 第八部分 知识产权与版权争议破解

  • 第九部分 第三方评估认证机制



机器学习技术近期取得的突破性进展,已彻底重塑人工智能发展格局。


当前的人工智能系统已演变为能够实现海量信息自主式学习并创造全新数据的强大引擎。随着人工智能技术复杂度的跃升与科技创新时代的到来,人类社会正经历深刻变革。

面对人工智能应用边界持续拓展的未来图景,企业决策者肩负着管控技术风险与负面效应的重大责任,以确保人工智能红利能够在安全可控的轨道上实现价值释放。

必须清醒认识到,在技术红利背后潜藏着严峻的安全隐忧:一旦缺乏有效约束,人工智能可能引发的系统性风险与个体权益侵害将产生不可估量的影响。技术原理认知盲区、算法偏见植入、虚假信息扩散以及隐私侵犯等风险隐患,仅是这一技术潜在威胁的冰山一角。

人工智能治理实践正是应对这些挑战的系统性方案。其内涵涵盖在技术研发、系统部署及场景应用全生命周期中,有机融入伦理准则、法律法规、政策指引、流程规范、标准体系、行业最佳实践等多元治理工具所形成的复合型治理框架。


image.png


要了解如何对人工智能系统进行治理,首先理解什么是人工智能系统至关重要。例如,《欧盟人工智能法案》将人工智能系统定义为 “一种基于机器的系统,其设计目的是在不同程度的自主性下运行,并且在部署后可能展现出适应性,并且为了明确或隐含的目标,从其接收到的输入中推断出如何生成诸如预测、内容、推荐或决策等能够影响物理或虚拟环境的输出”。



鉴于人工智能有望彻底改变我们生活的诸多方面,全新的协同治理方式至关重要。无论是在国家内部各监管部门之间,还是在跨国层面,有效的合作都至关重要:这既能保护民众免受伤害,又能促进创新与发展。

Kate Jones

英国数字监管合作论坛首席执行官




人工智能治理将变得困难得多。随着更多内部团队采用人工智能、新的人工智能功能被开发出来以及系统变得愈发复杂,人工智能治理的内部复杂性在不断增加。但与此同时,随着新法规的出台、客户需求的变化以及安全研究的发展,外部复杂性也势必会迅速增加。那些已经在结构化的人工智能治理方面进行了投入的机构已经占据了一定优势,并且将继续保持竞争优势。

Andrew Gamino-Cheong 

Trustible AI 联合创始人兼首席技术官





采取一种生态系统的方式来进行人工智能治理至关重要。政策制定者和行业需要在诸如人工智能验证基金会这样的平台上携手合作,以理解这项技术所带来的机遇与风险。其目的在于找到共同的监管准则来管控关键风险,从而创建一个值得信赖的生态系统,以最大限度地促进创新。

Denise Wong

新加坡资讯通信媒体发展管理局

数据创新与保护组助理首席执行官





企业治理


人工智能治理始于通过记录以下内容来定义企业的人工智能战略:

  • 目标运营模式,明确规定人工智能风险方面的角色和职责。

  • 合规性评估,以确定项目的成熟度和整改的优先次序。

  • 问责流程,用于记录和证明合规情况。

  • 政策和程序,以制定政策标准和操作流程。

  • 前瞻性扫描,使项目不断完善,并与持续发展的监管动态保持一致。




产品治理


人工智能治理还要求将企业政策标准应用于产品层面。各机构可以通过以下方式确保其人工智能产品符合企业战略:

  • 系统影响评估,在产品开发或部署之前识别并处理风险。

  • 针对软件开发生命周期量身定制的质量管理程序,从设计上处理风险。

  • 风险与控制框架,依据国际标准化组织(ISO)和美国国家标准与技术研究院(NIST)等广泛认可的标准来定义人工智能风险及应对措施。

  • 合格评定和声明,以证明其产品符合规定。
    技术文档,包括标准化的使用说明和技术产品规格。

  • 上市后监测计划,在产品投放市场后监测其合规情况。

  • 第三方尽职调查评估,以识别可能存在的外部风险,并为选择提供参考信息。




运营治理


组织的人工智能战略最终必须通过制定以下内容在整个企业中得以实施:

  • 性能监测协议,以确保系统能充分实现其预期目标。

  • 透明度和人工监督举措,以确保个人在与人工智能系统交互或人工智能做出决策时能够知晓相关情况,并做出明智的选择。

  • 事件管理计划,用于识别、上报并应对影响人工智能系统及其运行的严重事件、故障和潜在风险。

  • 沟通策略,确保组织在人工智能实践方面对内部和外部利益相关者保持透明度。

  • 培训和宣传项目,使负责人工智能治理的员工能够理解并履行各自的职责。

  • 技能和能力培养,以评估人力资源能力,并审查或设计工作要求。 




要知道,人工智能系统和所有产品一样,都有其生命周期,因为在整个生命周期中都存在着需要考量的治理问题。美国国家标准与技术研究院(NIST)的人工智能风险管理框架(AI RMF)全面阐述了人工智能系统的生命周期,并涵盖了对每个阶段的测试、评估、确认、验证的考量,以及对关键利益相关者的考量。上面列出了一个更为简化的生命周期示例,以及一些顶层的考量因素。



一个有效的人工智能治理模式关乎集体责任和集体商业责任,这应当包括隐私、问责、合规等监督机制。这种责任应当由人工智能治理链条中的每一个利益相关者共同承担。

Vishal Parmar

英国航空公司全球首席隐私法律顾问兼数据保护官






点击查看原文:

AI Governance in Practice Report 2024



本报告中文版已上线acfechina网站

您可在“行业报告”版块点击下载

中国区会员免费下载

建议PC端访问




*本文由ACFE China校对翻译,如需转载,请提前告知。

*本文内容和图片均源自网络,如侵权,请联系工作人员处理。




若您想加入中国区会员

欢迎扫码联系我们





END