南京晓然心理咨询专注南京地区心理辅导,是您身边专业、贴心的心灵伙伴!

首页 / 情绪困扰

人们对算法造成的性别歧视不那么愤怒

发布时间:2022-7-17 浏览次数:565

华盛顿——根据美国心理学会发表的研究,当由于算法而不是直接的人类参与而发生性别歧视时,人们在道德上的愤怒会减少。

 

在这项研究中,研究人员创造了“算法愤怒赤字”一词来描述他们对来自美国、加拿大和挪威的 3,900 多名参与者进行的八项实验的发现。

 

当在算法和人类造成的招聘决策中出现各种关于性别歧视的场景时,参与者对算法造成的那些在道德上的愤怒较少。参与者还认为,由于算法造成的歧视,公司在法律上的责任较小。


 


耶鲁大学博士后研究员、希伯来大学新任助理教授、首席研究员 Yochanan Bigman 博士说:“令人担忧的是,公司可以使用算法来保护自己免受歧视行为的指责和公众审查。” 比格曼说,这些发现可能会产生更广泛的影响,并影响打击歧视的努力。该研究在线发表在《实验心理学杂志:一般》上。

 

“人们认为人类歧视是出于偏见,例如种族主义或性别歧视,但他们认为算法歧视是出于数据动机,因此他们在道德上的愤怒程度较低,”比格曼说。“道德愤怒是激励人们解决不公正现象的重要社会机制。如果人们在道德上对歧视不那么愤怒,那么他们可能就没有动力去做一些事情。”

 

一些实验使用的场景基于亚马逊涉嫌基于算法的性别歧视的真实示例,该示例惩罚了女性求职者。虽然该研究侧重于性别歧视,但重复了八项实验中的一项以检查种族和年龄歧视,并获得了类似的发现。

 

关于人工智能的知识似乎没有什么影响。在挪威对 150 多名技术工作者进行的一项实验中,报告对人工智能有更多了解的参与者对算法造成的性别歧视仍然不那么愤怒。

 

研究人员发现,当人们更多地了解特定算法时,可能会影响他们的前景。在另一项研究中,当一家以性别歧视而闻名的公司的男性程序员创建了一种导致性别歧视的招聘算法时,参与者更加愤怒。

 

比格曼说,程序员在设计新算法时应该意识到可能会出现意外歧视。他说,公共教育活动还可能强调算法造成的歧视可能是现有不平等的结果。


文章参考APA:《实验心理学杂志:综合》,2022 6 27 日在线发表。


微信扫一扫,开启免费咨询

预约电话:025-84584678
地 址:南京市龙蟠中路329号(陶然苑)203室 (南京电视台对面)
分部地址:南京江东中路奥体名座E座805、806

扫一扫
关注微信

点击这里给我发消息
南京地区心理咨询