苏珊娜· 加莱亚诺
拉丁美洲内容协调员
或者围绕人工智能及其可能出现的偏见再次引发争议:这次,Twitter 被指责存在种族歧视,特别是其图像裁剪算法更倾向于显示白人,而不是深色肤色的人。事实上,许多用户已经发表了他们的实验, 以查明社交网络的算法是否确实存在种族偏见。
他们指责 Twitter 处理人物图像的方式存在种族主义
如您所知,Twitter 的算法 会自动裁剪帖子中附加的图像,而且我们知道它经常会遗漏其中的重要内容。然而,本周末Twitter 被指责存在种族主义,因为一些用户注意到,在显示不同肤色的人的图像中,Twitter 决定在自动裁剪后显示肤色较浅的人。
乍一看,您会看到正常的重复图像,但是当您单击它时,您会看 CMO 电子邮件列表 到未裁剪的版本,其中可能包含其他细节,例如同一图像中肤色较深的人。在实验中,一些用户混淆了人物的顺序,以将他们突出显示为图像的中心部分,但结果显然是相同的:
但 Twitter 的算法设计真的存在种族偏见吗?一些用户认为这取决于其他不关注肤色的因素,因为他们使用了不同的方法,发现结果与 Twitter 的种族歧视指控不一致: