“信息茧房”、隐私外泄,如何应对人工智能带来的伦理风险?(2)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
歧视与偏见: 人工智能技术在提供分析预测时,也曾发生过针对用户的性别歧视或是种族歧视的案例。曾经有企业使用人工智能招聘。一段时间后,招聘部门发现,对于软件开发等技术职位,人工智能推荐结果更青睐男性求职者。
深度伪造(Deepfake): 通过深度伪造技术,可以实现视频/图像内容中人脸的替换,甚至能够通过算法来操纵替换人脸的面部表情。如果结合个性化语音合成技术的应用,生成的换脸视频几乎可以达到以假乱真的程度。目前利用深度伪造技术制作假新闻、假视频所带来的社会问题越来越多。
全球人工智能伦理法律体系建设
现阶段,全球范围内许多国家都认识到制定人工智能治理框架的必要性,但这一框架的制定也面临着以国家间文化多样性为基础的道德多元化的挑战。
01
人工智能伦理设置原则
牛津大学学者Luciano Floridi和Josh Cowls在2019年哈佛数据科学评论杂志上发表的文章中提出了如今被学术界广为认可的AI伦理五原则:行善(Beneficence)、不伤害(Non-maleficence)、自治(Autonomy)、正义(Justice)以及算法可解释性(Explacability)。其中,前四项由传统的生物伦理原则沿用而来,最后一项则是针对人工智能算法而提出的新原则。五项总体AI核心原则后来又被衍生出更多细化的分支:
1
/ 行善
增进人类福祉(well-being);社会利益(social good); 共同利益(common good)
2
/ 不伤害
99科技网:http://www.99it.com.cn
