新加坡人工智能治理框架
Model Artificial Intelligence Governance Framework
🇸🇬 新加坡
框架
人工智能
已发布
发布:2020-01-17
摘要
新加坡于2020年1月发布的《人工智能治理框架》是全球首个国家层面的AI治理框架之一。该框架采用"以人为本"的方法,在促进AI创新的同时确保AI的可信度。框架强调可解释性、透明度、公平性和以人为本等核心原则。
正文
框架概述
新加坡《人工智能治理框架》于2020年1月17日发布,是全球首个全面的AI治理框架之一。该框架由新加坡个人数据保护委员会(PDPC)和新加坡资讯通信媒体发展局(IMDA)联合制定。
核心理念
框架遵循两个基本原则:
- 以人为本:AI系统应造福人类和社会
- 以AI为用:利用AI创造价值,同时管理潜在风险
核心原则
一、内部治理
组织应建立适当的内部治理结构:
- 领导责任:高级管理层对AI系统的伦理使用负责
- 政策制定:制定AI使用的内部政策和程序
- 风险管理:识别和减轻AI相关风险
- 人员培训:确保员工了解AI的伦理使用
二、运营中的AI决策透明度
组织应提高AI决策的透明度:
- 告知义务:告知用户AI系统参与决策过程
- 解释说明:以用户能理解的方式解释AI决策
- 可追溯性:记录AI决策过程以便审查
- 申诉机制:为受影响者提供申诉渠道
三、数据管理
负责任地管理AI相关数据:
- 数据质量:确保训练数据的准确性和代表性
- 数据保护:遵守个人数据保护法律
- 数据安全:保护数据免受未授权访问
- 数据生命周期:管理数据的完整生命周期
四、算法透明度和公平性
确保AI系统的公平性:
- 偏见检测:识别和减少算法偏见
- 公平性评估:定期评估AI决策的公平性
- 透明度报告:公开AI系统的相关信息
- 第三方审计:接受独立审计和评估
适用范围
框架适用于:
- 决策型AI:用于决策的AI系统
- 高风险场景:可能对个人产生重大影响的AI应用
- 公共部门:政府机构使用的AI系统
- 私营企业:在新加坡运营的企业
实施指南
框架提供具体的实施指导:
AI治理评估工具(A.I. Verify)
新加坡开发了A.I. Verify测试框架:
- 能力测试:评估AI系统是否按预期运行
- 透明度测试:检查AI系统的可解释性
- 公平性测试:检测算法偏见
- 安全测试:评估系统的安全性
行业案例
框架包含多个行业实施案例:
- 金融服务业
- 医疗健康
- 人力资源管理
- 零售和电子商务
与其他框架的关系
新加坡框架与以下国际标准相协调:
- OECD AI原则
- ISO/IEC 标准
- IEEE伦理指南
- 欧盟AI法案
后续更新
框架持续更新,包括:
- 2020年:首次发布
- 2022年:发布AI治理测试框架
- 2023年:更新生成式AI指南
- 2024年:推出AI安全测试工具