“信息茧房”、隐私外泄,如何应对人工智能带来的伦理风险?
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
过去十几年里,人工智能技术取得了长足进步,应用到各行各业之中,并带来生产力的大幅提升。不过,在具体实践中,人工智能的应用也暴露出侵犯数据隐私、制造“信息茧房”等种种伦理风险。
尤瓦尔·赫拉利在畅销书《未来简史》夸张地预言,智人时代可能会因技术颠覆,特别是人工智能和生物工程技术的进步而终结,因为人工智能会导致绝大多数人类失去功用。
尽管危言耸听,但赫拉利无疑为人类敲响了一面警钟。人工智能发展带来的伦理风险需要也正在被越来越多的国家重视。我们要警惕技术带来的哪些风险?需要采取什么样的措施未雨绸缪呢?
人工智能带来的伦理挑战
信息茧房: 用户被算法圈住,受困于狭窄的信息视野:
▶过滤气泡 (Filter Bubble) ,即根据用户喜好提供展示内容,网站内嵌的推荐算法会透过使用者所在地区、先前活动记录或是搜寻历史,推荐相关内容。社交媒体网站从千百万用户那里获得的使用数据,会构成无数个过滤气泡的小循环。
▶回声室效应 (Echo Chamber) ,在社交媒体所构建的社群中,用户往往和与自己意见相近的人聚集在一起。因为处于一个封闭的社交环境中,这些相近意见和观点会不断被重复、加强。
数据隐私: 数据隐私引发的人工智能伦理问题,今天已经让用户非常头疼。例如,尽管很多国家政府出台过相关法案、措施保护健康隐私,但随着人工智能技术的进步,即便计步器、智能手机或手表搜集的个人身体活动数据已经去除身份信息,通过使用机器学习技术,也可以重新识别出个人信息并将其与人口统计数据相关联。
算法透明性与信息对称: 用户被区别对待的“大数据杀熟”屡次被媒体曝光。在社交网站拥有较多粉丝的“大V”,其高影响力等同于高级别会员,在客服人员处理其投诉时往往被快速识别,并因此得到更好地响应。消费频率高的老顾客,在网上所看到产品或服务的定价,反而要高于消费频率低或从未消费过的新顾客。
99科技网:http://www.99it.com.cn
