摘要:
谁说AI有性别歧视?明明都是人类惹的祸
过去几年中,Google翻译等程式解读语言的能力大大提高,Google甚至正在开发演算法程式化思想,希望10年内可使电脑有“常识”。
谁说AI有性别歧视?明明都是人类惹的祸
这得益於大量可用的线上文字资料和新的机器学习技术。在AlphaGo接连斩落棋坛大神的今天,人们欣喜地看到这些年来人工智慧飞跃式的进步。
然而,让我们感到担忧的是,随着机器学习越来越有类似人类的语言能力,它们也吸收了人类语言使用形态中根深蒂固的偏见和歧视。
日前,普林斯顿大学电脑科学家ArvindNarayanan在《Science》杂志上发表题为《Semanticsderivedautomaticallyfromlanguagecorporacontainhuman-likebiases》(语料程式库自动导出的语义中包含人类偏见)论文,认为人工智慧已经正在从文字学习中取得人类潜在的种族和性别偏见。
这篇文章重点介绍一种称为“词语内嵌”的机器学习工具,它已在改变电脑解释语言和文字的方式。
根据ArvindNarayanan的解释,他们选择学习“辞汇内嵌”的一个主要原因,是这项技术过去几年里在帮助电脑理解语言方面取得惊人的成功。
“词语内嵌”将词义分解为一系列资料(称为“单词向量”),透过分析词语出现的频率及构建的数学模型来进行深度学习。
然而,令人惊讶的是,这种纯粹的统计学方法似乎捕捉到辞汇背後丰富的文化和社会背景。
例如,在数学模型构建的“语言空间”中,“花朵”的词意与“愉悦”相关,而“昆虫”更接近不愉快的词语相关。这更像人类对两个词意的主观情绪在AI上的反映。
ArvindNarayanan这篇文章还表明,心理学实验中一些更令人不安的隐藏式偏见也很容易被演算法学到。譬如说,“女性”这个词大多与艺术、人文职业及家庭关系密切,“男性”这个词更接近数学和工程专业范畴。
更让人惊讶的是,AI系统更可能将欧洲与美国人的名字和如“礼物”或“快乐”等积极愉快的辞汇关联,而非裔美国人的名字更常与不愉快的话语相连。
机器演算法的偏见歧视并不是一个新问题。早在1970、1980年代,英国的圣乔治医学院就使用电脑程式对申请人资料进行初步筛选。
该计画模拟了过去录取人员的选择形态,结果被拒绝的约60名申请人大多是妇女或拥有非欧洲人的名字。
英国的种族平等委员会最终决断,圣乔治医学院在这场招生过程中有种族和性别歧视。
这既不是演算法的疏忽大衣,更不是程式设计师的恶意,而是人类心底根深蒂固的“偏见”无法抹除,而电脑程式加剧了这个问题,并给它看似客观的糖衣。
这正如文章的联合作者、巴斯大学的电脑科学家JoannaBryson所说:
很多人都说这个实验的结果表明AI有偏见。不,这正显示出我们是有偏见的,而AI正在学习它。
Bryson还警告说,AI的学习能力会潜在加强现有的偏见。与人类大脑不同,演算法本身可能无法有意识地抵销偏见。
谈及如何修正AI的偏见,文章另一位联合作者Caliskan提出,解决方案并不一定要改变AI学习的演算法。AI只是客观透过演算法捕捉我们生活的世界,但我们的世界充满歧视与偏见。改变演算法的方式只会使其效果更差。
相反,我们可以从另一端入手,修正AI演算法学习之後的成果,让它在二次学习後不断习得人类的道德观念。
例如,在使用Google翻译时,你可以调整它,改善AI翻译的品质:如果你看到“医生”总是翻译成“他”,而“护士”总是翻译成“她”,你可以身体力行去改变。
游金地
解读热门新闻,呈现敏感事件,更多独家分析,扫描二维码免费阅读。
优质商家
猜你喜欢
热门排行
标签: AI google 语言