我们正在试图设计这样一个人工智能系统,它不仅仅能被应用于计算机科学领域,还能为社会带来价值。(图片来源:Creative commons/Pexels)
公平是什么?这听起来像是一个反问句。但是对于密歇根州立大学(MSU)计算机科学与工程系的Pang-Ning Tan教授来说,随着人工智能系统在决定谁获得适当的医保、银行贷款或工作方面起着越来越重要的作用,这个问题需要一个答案。
在亚马逊和美国国家科学基金会(NFS)的资助下,Tan过去一年中致力于探究如何使人工智能算法变得更公平,并让系统识别出不公平的情况。
Tan教授说:“我们正在尝试设计一个不仅适用于计算机科学,还可以为社会带来价值和收益的AI系统。为此,我开始考虑现在对社会真正构成挑战的领域是什么?”
“随着我们越来越依赖AI来满足日常需求(例如医保)以及来处理垃圾邮件过滤、获取新闻等平常的事务,公平逐渐成为一个非常大的问题。”
(图片来源:Pixabay)
正如Tan所言,随着人们已经在各种应用程序中信任AI,不公平的算法带来的后果可能是深远的。
例如,调查显示,人工智能系统会使黑人患者更难获得医疗资源。而亚马孙同样因为AI招聘工具对女性更加不利,从而停止了对它的使用。
Tan的研究团队正在从多方面回应此类问题。他们正在研究如何使用数据来训练算法,同样还在研究一种在做出决策和提出建议时,能够使算法访问更多不同信息的方法。他们正在与NSF和亚马孙合作,试图拓宽对AI系统公平性的定义方式。
(图片来源:Pixabay)
Tan认为,传统的对于公平的定义是从个人角度出发的。也就是说,一个人会对某个特定结果的公平与否有自己的判断。这是一个好的开端,但同时也存在冲突与矛盾。对于一个人来说公平的事情,可能对于另一个人是不公平的。
因此,Tan和他的研究小组想要借鉴社会科学的思想,来建立一个包容大众观点的定义。
Tan说:“我们正在努力使AI具备公平性。为此,我们需要告诉它什么是公平。但问题在于,如何设计一种所有人都可以接受的公平的度量标准。我们正在探究一个决策是如何做到不仅影响个人,还影响他们周围的人和社会圈子的。”
考虑一个简单的例子:三个信用评分相同的朋友向同一家银行申请了同等金额的贷款。如果银行批准或拒绝了所有人,那么他们会认为这比仅批准或拒绝一个人的情况要更为公平,因为那可能表明银行参考了一些这几位友人认为不公正的、无关紧要的因素。
Tan的团队正在尝试从本质上对不同结果的公平性进行评分或量化,以便于AI算法可以识别出最公平的选择。
当然了,现实世界比这个例子要复杂得多,Tan承认,定义AI的公平性说起来容易做起来难。但是他得到了来自MSU部门主任Abdol-Hossein Esfahanian等人的帮助。
Esfahanian是应用图形理论领域的专家,他帮助在模型之间建立联系。他热爱学习计算机科学领域的相关知识,并且只要Tan的团队同意,他很愿意加入他们的课堂中去学习。
Esfahanian说:“我们的教师在传授知识方面非常出色。我需要学习更多有关数据挖掘的知识,因此我在Tan博士的一门课程中学习了一个学期。从那时起,我们开始就研究问题进行交流。”
现在,Esfahanian是NSF和Amazon的联合研究人员。
他说:“算法是由人创造的,而人通常会有偏差,因此这些偏差会渗入算法之中。我们希望实现广泛的公平,因此我们希望对如何评估公平有更好的了解。”
Tan的团队正在这方面取得进展。去年11月,他们在NSF和亚马孙组织的在线会议以及在电气和电子工程师协会主办的虚拟国际会议上介绍了他们的工作。
Tan和Esfahanian都表示,社区和资助者对Spartans的进展感到兴奋。但是两位研究人员也都承认,他们才刚刚起步。
“这是一项持续不断的、存在问题和挑战的研究。如何定义公平?如何帮助人们信任我们每天使用的这些系统?我们作为研究人员的工作就是为这些问题提出解决方案。”Tan说道。
作者:Matt Davenport
翻译:彭琛
审校:董子晨曦
引进来源:密歇根州立大学