“信息茧房”、隐私外泄,如何应对人工智能带来的伦理风险?(3)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
隐私(Privacy);安全(Security);正直 (Integrity)
3
/ 自治
自主决定权(Autonomy);选择权(Choice);知情同意(Consent);自由(Freedom)
4
/ 正义
避免不公平(Avoid unfairness);不歧视与不偏见(non-bias/non-discrimination)
5
/ 可解释性
明确的问责(Accountability);透明性(Transparency)
近年来,技术界也越来越关注AI伦理问题。全球人工智能顶会IJCAI、NeurIPS、AAAI上出现了越来越多的AI伦理论文,话题范围涉及AI可解释性,安全AI,隐私与数据收集,公平与偏见等。而在近20年以来各个大型AI会议上提及伦理关键字的论文标题的数量都在逐年增加。
02
欧盟,人工智能伦理立法先驱
2015年1月欧盟议会法律事务委员会(JURI)成立专门工作小组,开始研究机器人和人工智能发展相关的法律问题;2019年4月,欧盟委员会发布了正式版的人工智能道德准则《可信赖人工智能的伦理准则》,提出了实现可信赖人工智能(Trustworthy AI)全生命周期的框架。该准则提出,可信赖AI需满足3个基本条件:
1
合法的(lawful), 即系统应该遵守所有适用的法律法规;
99科技网:http://www.99it.com.cn
