实验表明,对于浅肤色男性,判断性别的错误率始终低于 0.8%,而对于深色皮肤的女性,错误率明显较高,在一个案例中超过了 20%,在另外两个案例中超过了 34%。
由于人工智能系统更容易错误识别这些人,因此它可能导致执法和招聘流程等领域出现潜在的歧视,因为这些技术可以(而且经常)用于识别可能的罪犯和执法部门通缉的人。
该研究的结果还引发了人们对这些程序中使用的神经网络的训练和评估 巴西电话号码列表 的担忧,强调了检查面部分析系统中偏见的重要性,并表明需要进一步调查其他人工智能应用中可能存在的差异。
另一个例子是当我们分析贷款信用分析中使用的人工智能时。
贷款审批算法(也称为信用评分算法)通常被金融机构用来评估贷款申请人的信用度——如果该算法根据与少数群体相关的因素分配更高的风险分数,这些社区的个人可能难以获得贷款或受到不利的贷款条款的影响,从而延续系统性不平等并限制经济机会。
对此,负责任贷款中心拉丁裔事务主任阿拉塞利·帕纳梅尼奥 (Aracely Panameño) 表示,“输入承保算法的数据质量至关重要。 (…)如果您输入的数据基于历史歧视,那么您基本上就是在巩固另一端的歧视。”
而当谈到求职算法时,人们担心算法中的偏见可能会导致某些群体的求职者获得不公平的优势或劣势。
另一项调查显示,谷歌的求职算法存在性别偏见,在搜索结果中,薪酬更高的高管职位更倾向于男性求职者——因此,如果求职算法始终将薪酬更高的高管职位主要排在男性求职者前面,那么它可能会加剧就业市场现有的性别差异。