“信息茧房”、隐私外泄,如何应对人工智能带来的伦理风险?(4)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
2
合伦理的(ethical),即系统应该与伦理准则和价值观相一致;
3
稳健的(robust),不管从技术还是社会的角度来看,AI系统都可能会造成伤害。所以系统中的每个组件都应该满足可信赖AI的要求
对于AI从业者,该准则包含四项道德原则,确保AI从业者以值得信赖的方式开发、部署和使用人工智能系统:
尊重人的自主性(respect for human autonomy) :人类与人工智能系统之间的功能分配应遵循以人为本的设计原则,并为人类选择留下有意义的机会。
预防伤害(prevention of harm) :人工智能系统及其运行的环境必须安全可靠,确保不会被恶意使用。弱势群体应得到更多关注。还必须特别注意人工智能系统可能由于权利或信息不对称而导致或加剧不利影响的情况。
公平性(fairness) :人工智能系统的开发、部署和使用必须是公平的,公平体现既有实质性的也有程序性的。
可解释性(explicability) :可解释性对于建立和维护用户对AI 系统的信任至关重要:流程需要透明、人工智能系统的能力和目的需要公开沟通、并且决策(在可能的范围内)可以向直接和间接受影响的人解释。有时候,解释为什么一个模型产生了一个特定的输出或决策并不总是可能的。这些情况被称为“黑盒”算法,在这些情况下,需要其他可解释性措施,例如,系统功能的可追溯性、可审计性和透明通信等。
2018年5月25日,欧盟《通用数据保护条例(GDPR)》 正式生效。这一条例明确定义了个人数据及其适用范围,为数据保护提供合法性基础,并明确了数据主体权利、数据控制者义务、数据流通标准、数据救济和处罚等,已经成为全球众多国家与地区制定数据保护条例的重要参考。
99科技网:http://www.99it.com.cn
