电话:+86 574 88168918 邮箱:sales@cobinet.cn

首页-新闻动态-新闻详情

种族和性别偏见只是冰山一角 人工智能向谁学坏了

发布时间:作者:cobinet 配线架浏览:370次来源:华强智慧网
CobiNet(宁波)推荐文章:

人工智能出现种族偏见和性别偏见

人工智能的学习能力是让人类羡慕的,特别是让计算机具备理解人类语言的人工智能(AI)更是科技上的一大进步,但是语言本就是意识形态的产物,而今,广泛学习人类语言的人工智能工具已经出现了明显的种族和性别偏见。我们禁不住问:人工智能向谁学坏了?

人工智能出现种族偏见和性别偏见

一项研究发现,计算机在学习人类语言的同时还吸收了人类文化中的一些根深蒂固的观念,出现了相同的人类偏见。普林斯顿大学信息技术政策中心的计算机科学家们发现了这一问题,他们解释,计算机 AI 出现种族歧视和偏见源于算法偏差造成的。此前心理学家曾经做过一项称为“隐性关联测试(IAT)”,测试已揭示人类的偏见。而在新的研究中,AI 在学习人类语言的时候也把这种关联词学到其中,从而也出现像人一样的性别种族偏见。

这项研究被刊登在 2017 年 4 月 14 日发表的《科学》杂志上,为了揭示 AI 在语言学习中可能出现的偏见,研究团队们根据 IAT 创建了新的统计检测,重点关注一种名为“单词嵌入”机器学习工具。结果发现这种学习算法改变了计算机解读语音和文本的方式,结果表明,算法与 IAT 一样拥有同样的偏见,也就是把表示愉快的单词与(美国和英国的)白人面孔联系起来。这将意味着算法的存在也会让隐性关联出现在 AI 之中,从而也会带来人类偏见。更严重的是,由于 AI 的学习速度惊人,这种人类偏见或许比现实社会中的还要严重。

关于“人工智能学坏”的几点想法

偏见只是冰山一角,人工智能的快速学习能力可能是把双刃剑。曾有研究表明,性别歧视和种族偏见将会对人类行为产生深远的影响。研究从面试角度进行,对于非洲裔美国人,如果面试者的名字是欧洲裔美国人,即使简历内容相同,后者所能获得的面试邀请将比前者多出 50%。而我们使用 AI,并不希望它给我们带来任何行动上的麻烦。如何把握,还是一个重大课题。

技术本身没错,但是如何应用以及产生的后果则会沦为道德或者社会问题。其实,原则上,我们可以建立一些系统对带有偏见的决定进行检测,然后采取行动,并与其他人一起呼吁建立一个人工智能监管机构。这是一项非常复杂的任务,但作为一种社会责任,我们不应回避。


文章编辑:CobiNet(宁波)  
本公司专注于电讯配件,铜缆综合布线系列领域产品研发生产超五类,六类,七类线,屏蔽模块,配线架及相关模块配件的研发和生产。

欢迎来电咨询0574 88168918,邮箱sales@cobinet.cn,网址www.cobinet.cn

相关新闻

 

©2016-2019宁波科博通信技术有限公司版权所有浙ICP备16026074号