广告

AI做出的“公平性”如何服众?

「什么是公平?」,就算是人类自己也没有统一的标准,它有时取决于语境。不论是在家里,还是在学校,教导小孩要公平是至关重要的,但说起来容易做起来难。正因为如此,我们要如何才能将社会上所说的「公平」的细微差别传递给AI系统呢?

什么是「公平」?就算是人类自己也没有统一的标准,它有时取决于语境。不论是在家里,还是在学校,教导小孩要公平至关重要,但说起来容易做起来难。正因为如此,要如何才能将社会上所说的「公平」的细微差别传递给人工智能(AI)系统呢?pR4esmc

IBM研究院的一组研究人员是着手解决该难题的先驱。IBM为开发人员推出了一款名为「AI Fairness 360」的工具包。作为这项工作的一部分,IBM为企业提供一种新的「基于云端的、偏差(bias)检测和消除服务」,企业可以使用它来测试和验证AI驱动的系统的行为。pR4esmc

在接受《EE Times》的电话采访时,IBM研究院院士Saska Mojsilovic告诉我们,科学家和AI从业者太过于关注AI的准确性。通常,人们关于AI的第一个问题是,「机器可以击败人类吗?」pR4esmc

但公平性呢?例如,AI中的公平无效可能会导致在医疗保健或自动驾驶车辆中造成灾难性后果,她说。pR4esmc

如果用于训练机器的数据集有偏差怎么办?如果AI无法解释它是如何做出决定的,那么如何才能验证其「正确性」?AI可以揭示在AI处理过程中数据是否被以某种方式操纵过吗?AI是否可以向我们保证其数据从未(包括处理前和处理后)受到攻击或篡改吗?简言之,是否存在AI自我反省?简单回答:没有。pR4esmc

Mojsilovic表示,如果不对AI用户、开发人员和从业者开放,AI系统就无法获得社会的信任。pR4esmc

分解公平

一个更大的问题是如何教导机器什么是公平。Mojsilovic指出:「因为我们是科学家,我们做的第一件事就是分解“公平性”,我们需要从这着手。」他们将公平分解为AI实现中的指针、算法和偏差。pR4esmc

201811141149.jpgpR4esmc

减少整个AI生命周期的偏差。(来源:IBM)pR4esmc

IBM研究科学家Kush Varshney解释,其团队研究了AI算法和AI决策的偏差和公平性。「有个人的公平,也有团体的公平。我们研究了群体的不同属性——从性别到种族,还考虑了法律和监管问题。」最后,团队最终测量了30个不同的指标,以寻找数据集、AI模型和算法中的偏差。pR4esmc

这些发现已纳入IBM不久前推出的AI Fairness 360工具包中。IBM将其描述为「一个全面的指标开放原始码工具包,用于检查数据集和机器学习模型中不期望的偏差。」pR4esmc

虽然许多科学家已经在努力发现AI算法中的歧视(discrimination),但Mojsilovic说IBM的方法不同,它不仅包括发现偏差的算法,且还包括用于消除偏差的工具。pR4esmc

在基础层面,你必定会问:由计算机科学家来定义公平?这通常不是社会科学家的任务吗?意识到这种不协调,IBM明确表示Mojsilovic和Varshney都没有闭门造车,他们导入了许多学者和研究机构的资料。Varshney参加了由卡内基国际事务伦理委员会(Carnegie Council for Ethics in International Affair)主办的Uehiro-Carnegie-Oxford伦理会议;Mojsilovic则参加了由加州大学柏克莱分校法学院(UC Berkeley Law School)赞助的加州柏克莱AI工作组。pR4esmc

算法中立吗?

这一段时间以来,社会科学家一直在指出AI偏差问题。pR4esmc

威斯康辛大学麦迪逊分校(University of Wisconsin, Madison)新闻与大众传播学院教授Young Mie Kim解释:「AI歧视(或AI偏差)可能发生在它隐含或明确地强化现有不平等的社会秩序和偏见(例如,性别、种族、年龄、社会/经济状况等)时。」例子从抽样误差(例如,由于抽样方法的不适当或困难导致某些人口统计资料不充分)到机器训练(建模)中的人为偏差。Kim认为,即使在设计或建模中采用的「战略决策」也存在AI偏差,例如政治广告算法。pR4esmc

在她最近题为《算法机会:数位广告和政治参与的不平等(Algorithmic Opportunity: Digital Advertising and Inequality of Political Involvement)》的研究中,Kim展示了在基于算法的决策中,不平等是如何被强化。pR4esmc

技术小区(technical community)可能会争辩说「算法是中立的」或者可以「受过教育」(训练有素)。Kim指出:「也就是说,他们并不承认在算法开发的任何阶段都会出现偏差。」pR4esmc

可解释的AI

不只是消费者害怕AI,许多计算机科学家也表达了担忧。威斯康辛大学计算机科学助理教授Aws Albarghouthi告诉《EE Times》:「从短期看,我担心越来越多地使用数据驱动的决策,这有可能传播偏见和不公正。从长远看,我担心AI在战争自动化方面的使用。」pR4esmc

AI无法解释其决策将带来持续焦虑。威斯康辛大学计算机科学助理教授Loris D'Antoni告诉我们:「现在,程序设计师开始将强大的机器学习算法作为程序设计工具箱中的工具。然而,这些算法复杂、难以预测、难以解释。例如,没人知道由此产生的机器学习模型究竟做了什么。」在他看来,自动化决策需要被理解和规范,并且可能以正规的方式进行。pR4esmc

对于流程的每个步骤,从训练数据和处理到测试与部署,IBM指出其工具包提供的解释可显示:在两种决策中、哪些因素倾向于支持哪一方;对推荐的信心,以及支持这种信心的因素。pR4esmc

IBM希望AI Fairness 360工具包将被广泛使用,以便开发人员可以为其做出贡献,帮助建立对AI的信任。与此同时,IBM将为企业提供其新的软件服务,旨在自动检测偏差并解释AI在需要做决策时,是如何做出决策的。它在IBM Cloud上运作,可协助企业管理AI系统。pR4esmc

IBM称,其在IBM Cloud上的公平性监控服务将与来自各种机器学习框架模型和AI构建环境(如Watson、 TensorFlow、SparkML、AWS SageMaker和AzureML)配合使用。「这意味着组织可以借力这些新控制以服务于企业使用的大多数流行的AI框架。」IBM也承诺提供定制服务,「还可对软件服务进行程序设计,以监控任何业务工作流程的独特决策因素,使其能够根据特定的组织用途进行定制。」pR4esmc

好的开始

越来越意识到AI中算法公平性问题的AI研究界,对IBM的新产品表示欢迎。D'Antoni告诉我们:「看到公平检查技术进入业界并付诸实践,真的令人兴奋。」他并补充,「我认为该工具将使AI研究界更加意识到该问题的重要性。」pR4esmc

Albarghouthi称IBM的努力「开创了好的开始」。但是为了让AI Fairness 360工具包真正变得有效,应该使许多需要理解它的开发人员能用到它。Albarghouthi解释,该工具需要「与研究界探索的最新公平技术并共同发展。」pR4esmc

他并告诫:「如果研究和理解超越了目前的定义和技术,那么该工具很可能会停滞不前。」pR4esmc

公平性问题

最后,任何成全或破坏AI公平性工具包的因素都会回溯到如何定义公平这一棘手问题。Mojsilovic承认,在不同应用中,公平有不同表现。正如人类对公平有不同看法,使用者、客户和公众可能会根据情况对公平有不同评判。pR4esmc

当被问及AI公平性工具包的缺陷时,Albarghouthi表示,问题之一是「存在于公平性定义的选择,以及其是否足够。」毕竟,公平「在很大程度上取决于领域、其敏感性和涉及的监管。」他补充:「我确信,这些工具只有在其使用成为机器学习管道的标准部分时才有效。」pR4esmc

D'Antoni表达了他自己的担忧。「有很多关于公平和偏差的定义,很难将它们全部考虑在内,且其实现也并非能毕其功于一役。」换句话说,「公平定义往往是“冲突的”,存在的不可能出现的结果表明,某些公平概念不能同时诉诸实施。」pR4esmc

此外,还有一个事实是「机器学习小区目前尚未接受过如何了解现有的公平和偏差定义的含义以及如何使用它们,」他补充。pR4esmc

Kim同意。「对这种“AI偏见”问题的认识是抵抗AI歧视的第一步,也是最重要的一步。」她指出:「在人类社会中,我们提出了一些减轻不平等和歧视的政策和法规。但问题是AI仍是个秘密,与大多数情况一样,数据和建模是专有的,这使得任何公共政策或监管讨论/辩论更加困难。」pR4esmc

透明度

理解了定义公平性时的复杂性和权衡取舍之后,IBM研究人员认为,优先事项应该是AI实践和实施的透明度。pR4esmc

Mojsilovic建议由AI服务开发商和供货商完成并自愿发布供货商的符合性声明(她称之为情况说明书)。「以提高其服务的透明度并产生对它们的信任。」她将其比作「食品营养卷标」,或「器具信息表」。pR4esmc

业界需要有关部署在不同服务中的AI系统信息的标准。IBM敏锐地意识到这不会在一夜之间发生,正如营养标签花了很长时间才逐步发展起来一样,情况说明书的开发可能是个漫长过程。Mojsilovic提醒,业界才刚刚开始其AI之旅。pR4esmc

与IBM类似,研究界也在与AI公平性问题斗争,在这个悬而未决的领域,IBM的AI Fairness工具包似乎具有开创性。D'Antoni告诉我们:「我并未注意到现有用于AI模型的通用公平性检查工具。」pR4esmc

另一方面,他补充:「研究界提出了许多令人兴奋的原型工具。例如,Kramer等人提出的FairTest和来自我们自己团队的FairSquare。」pR4esmc

(参考原文:Teaching Machines ‘Fairness’ ,by Junko Yoshida)pR4esmc

  • 好文,引人深思!
    AI,只要是人为编码,就会有,有意的,无意的公平性偏差,甚至选择性作弊。
    这是我个人的看法。
  • 好文,引发深思,AI只要是人为编码的,就会偏差,就可以作弊,这是我编码多年的看法。
Junko Yoshida
ASPENCORE全球联席总编辑,首席国际特派记者。曾任把口记者(beat reporter)和EE Times主编的Junko Yoshida现在把更多时间用来报道全球电子行业,尤其关注中国。 她的关注重点一直是新兴技术和商业模式,新一代消费电子产品往往诞生于此。 她现在正在增加对中国半导体制造商的报道,撰写关于晶圆厂和无晶圆厂制造商的规划。 此外,她还为EE Times的Designlines栏目提供汽车、物联网和无线/网络服务相关内容。 自1990年以来,她一直在为EE Times提供内容。
  • 微信扫一扫,一键转发

  • 关注“国际电子商情” 微信公众号

近期热点

广告
广告

EE直播间

更多>>

在线研讨会

更多>>