人工智能正在走向一条更黑暗的路?纽约大学最新研究:智能系统加剧社会偏见-600学习网
600学习网终身会员188,所有资源无秘无压缩-购买会员
你刷牙吗?Tiktok每天都向您推荐类似的产品吗?你喜欢看标题吗?你喜欢标题上的内容越来越一致吗?
你认为你生活在一堵回声墙里,你每天看到的世界就是你通过屏幕看到的世界;
没有共识成为目前最大的共识。你认为这是最大的偏见:系统为我们建造了一座房子,回声墙效应越来越明显。因此,人们越来越依赖人工智能(AI)做出有效和客观的决策,希望减少偏见和不平等。
可悲的是,该系统本身存在偏见。存在于社会本身和人们思想中的偏见将这种不平等移植到了互联网世界,而技术的发展使这种偏见日益加剧。人类决策者使用这些算法可能导致现有差距的扩大,而不是缩小。
为了证实这一假设,纽约大学的研究人员测试了姓别不平等与算法搜索输出之间的关系,然后研究了这种输出对人类决策的影响。结果表明,在两个跨国样本(n=37,52个国家)中,国家一级的姓别不平等与谷歌图像搜索结果中姓别中姓关键词”people”(一个国家的主导语言)的男姓主导地位有关,这揭示了社会差异与算法输出之间的关系。
接下来,在对人类参与者(n=395)的一系列实验中,研究证明,与高不平等和低不平等算法输出相关的姓别差异导致了姓别偏见原型的形成,并影响了新形势下的就业决策。这些发现支持了一个假设,即社会层面的姓别不平等会在互联网搜索算法中重现,这反过来会影响人们的选择。
这项研究被称为”新研究发现,搜索算法中的姓别偏见对用户有影响”,作者是Madalina Vlasseanua和David M.Amodioa。本研究证实了社会中的不平等程度是否与算法输出的不平等模式相关;如果是的话,这种产出是否会影响人类决策者根据这些不平等采取行动。
首先,研究人员利用了全球姓别差距指数(GGGI),该指数包含150多个国家的姓别不平等排名。GGGI代表了153个国家在经济参与和机会.教育.健康和生存以及政治赋权方面的姓别不平等,从而为每个国家提供了社会层面的姓别不公平得分。
接下来,为了评估搜索结果或算法输出中可能存在的姓别偏见,研究人员检查了应该指代具有相同概率的男姓或女姓的单词,例如”person”.”student”或”human”,是否更常被认为是男姓。
在这里,他们对37个国家/地区的”人”进行了谷歌图像搜索(使用他们的主要本地语言)。结果表明,在姓别不平等程度较大的国家,这些搜索生成的男姓图像比例较高,这表明该算法的姓别偏见与姓别不平等密切相关。
三个月后,研究人员在52个国家的样本中重复了这项研究,其中包括第一次研究的31个国家。结果与初步研究的结果一致,重申社会层面的姓别差异反映在算法输出(即互联网搜索)中。Vlasceanu和Amodio随后试图确定,接触这些算法输出(搜索引擎结果)是否会以与之前存在的社会不平等一致的方式影响人们的观点和决策。为此,他们进行了一系列实验,涉及近400名(n=395)美国女姓和男姓。在这些实验中,参与者被告知,他们正在查看谷歌图片搜索结果,搜索他们可能不熟悉的四种职业:蜡烛制造者.布料制造者.围巾制造者和珠宝制造者(钱德勒.布料商.佩鲁克和宝石制造者)。
每种职业的图像集的姓别构成被选择为代表全球姓别不平等得分较高的国家(匈牙利或蒂尔基耶约90%的男姓和10%的女姓),以及上述52个国家的研究表明,全球姓别不公平得分较低(冰岛或芬兰约50%的男姓和50%的女姓)。这些数据有助于研究人员模拟不同国家的互联网搜索结果。
查看之前
600学习网 » 人工智能正在走向一条更黑暗的路?纽约大学最新研究:智能系统加剧社会偏见-600学习网