什么是AI中的“偏见”?为什么它是一个问题?

秀梅 蒋
秀梅 蒋
Senior ML Engineer, specializing in NLP. 高级机器学习工程师,擅长NLP。シニアMLエンジニア、NLP専門。Ingénieure ML sénior, spécialisée NLP.

哈喽,我来试着给你解释一下这个事儿,尽量说得通俗易懂点。

你可以把AI想象成一个学习能力超强的“学生”,而我们人类是给它提供“教材”的老师。AI本身是中立的,像一张白纸,它懂什么、会什么,全看我们喂给它什么样的学习资料(也就是“数据”)。

那什么是AI的“偏见”呢?

简单说,就是这个“学生”学到的知识是“偏科”的,甚至是带有歧视性的。它不是故意学坏,而是因为我们给它的“教材”本身就有问题。

举个最经典的例子:

假设一家大公司想用AI来帮忙筛选简历,决定谁能进入面试。为了训练这个AI,工程师们就把公司过去十年所有成功员工的简历都喂给了它,让它学习“什么样的简历是好简历”。

听起来很合理对吧?但问题来了。如果这家公司在过去十年里,因为社会环境或者招聘习惯等原因,录用的工程师绝大多数都是男性。那么AI在学习了成千上万份这样的简历后,就会得出一个结论(或者说一种“感觉”):“男性简历 ≈ 成功的工程师”

这时候,AI就产生了偏见。当一份同样优秀,甚至更出色的女性工程师的简历递进来时,AI可能会给它打一个更低的分数,仅仅因为它不符合自己学到的“成功范本”。它并不是讨厌女性,而是从数据里“学会”了这种模式。

再比如,很多早期的面部识别系统,对白人男性的识别准确率很高,但对女性或有色人种的识别率就差很多。原因就是训练它们用的照片数据里,白人男性占了绝大多数。

所以,AI的偏见,本质上是我们人类社会已有偏见的“数字化”和“放大化”。它就像一面镜子,照出了我们数据里隐藏的不平等。


为什么它是一个严重的问题?

这个问题可就大了,因为它会实实在在地影响我们的生活,甚至会造成严重的社会不公。

  1. 造成不公平和歧视 这个是最直接的后果。就像上面那个例子,一个能力很强的求职者,可能仅仅因为性别、种族或者毕业院校这些标签,就被一个看不见的算法给筛掉了,连个展示自己的机会都没有。如果这套系统被用在银行贷款审批上,它可能会因为你住在某个“信用记录不良”的社区而拒绝你的贷款,即使你本人信用很好。这会加剧社会阶层固化。

  2. 强化和固化刻板印象 如果我们用的AI总是在强化一些老旧的观念,那社会就很难进步。比如,你让AI画一个“医生”,它总是画男性;画一个“护士”,就总是画女性。久而久之,这些由AI生成的内容会反过来影响我们,尤其是孩子们,让他们觉得“世界本该如此”,那些刻板印象就更难被打破了。

  3. 可能导致危险甚至致命的后果 这听起来有点吓人,但确实存在。想象一个用于诊断皮肤癌的AI,如果它学习的数据绝大多数来自浅色皮肤的病人,那么当它在深色皮肤上看到一个可疑的病灶时,就很有可能误判或漏判,这直接威胁到病人的生命。在自动驾驶领域,如果AI对某些特定人群或场景的识别能力有偏差,后果更是不堪设想。

  4. 信任危机 当人们发现这些被标榜为“客观公正”的AI系统其实充满了偏见时,就会对技术本身产生不信任感。这种不信任会阻碍AI在医疗、教育、公共服务等很多有益领域的应用和发展。

总的来说,AI偏见就像一个潜伏在我们数字世界里的幽灵,它继承了我们过去的偏见,并以一种高效、大规模、且难以察觉的方式在未来重演这些不公。解决这个问题,不仅仅是技术人员敲敲代码、调整算法那么简单,它更需要我们全社会去反思:我们提供给AI学习的数据,是否反映了一个我们真正想要的、公平的世界?