欢迎来到龙哈工业云
首页 / 新闻资讯 / 谷歌:创建人工智能原则 避免出现道德偏见
谷歌:创建人工智能原则 避免出现道德偏见
adminlh 2018-11-14 阅读量:386

在去年谷歌会议上,谷歌公司当时的人工智能(AI)主管表示,我们不需要担心杀手机器人,相反,我们需要担心偏见。


  他说:“真正的安全问题是,如果我们给这些系统有偏见的数据,它们就会产生偏见。”


  这是谷歌过去一直在努力解决的问题。在Google Photos中有一个算法错误地将黑人归为“大猩猩”。因此,从IBM到Airbnb的每一个人都在努力确保他们创建的算法不包含类似的偏见。


  对于谷歌的道德机器学习、信任和安全主管Jen Gennai来说,防止偏见在工作描述中是明文规定的。Gennai带领一个跨公司的团队,分析和询问新产品和服务,以确保所有新的谷歌产品都遵守这个道德标准。


  “如果我们要建立一项新技术,我们需要从一开始就确保技术是正确的,”她表示。


  创建AI原则


  今年6月,谷歌首席执行官桑达尔•皮查伊发布了公司的人工智能原则,用于指导谷歌涵盖这些领域的工作和研究,包括确保谷歌员工不会制造或强化不公平的偏见。


  皮查伊写道:“人工智能的开发和使用将在未来很多年对社会产生重大影响。作为人工智能领域的领导者,我们深感责任重大。”


  这种对人工智能的新立场的催化剂受到了谷歌做错事的例子的影响。除了大猩猩事件,哈佛大学研究人员Latanya Sweeney在谷歌搜索中也发现了种族歧视的例子。当你搜索听起来像黑人的名字时,与逮捕相关的消息比搜索听起来像白人的名字时更容易出现。


  Gennai解释说:“这两起事件都是我们的错误导致,我们不应该让我们的用户看到这些,我们需要从一开始就阻止它们发生。”


  每一款新产品都要经过严格测试


  现在,每当谷歌推出一款新产品时,Gennai及其团队都会对其进行严格的测试。会让来自技术、法律、隐私和社会科学等领域的专家聚在一起,根据谷歌的AI原则分析每种产品。


  这个测试主要关注产品的优点和缺点。“我们不是扮演找谷歌麻烦的警察角色,”Gennai说。“我们就像,我希望你能推出最好的产品,所以我要找出所有可能出现问题的漏洞,这样你就能修复它们。”


  以Duplex为例,谷歌助手可以代表你打电话进行预约,在今年早些时候的I/O开发者大会上发布这项技术之前,有几个伦理问题需要考虑。


  在这个例子中,团队在人工智能如何处理不同口音上做了很多工作,但是 Gennai的团队提出了一些其他的问题。


  她解释:“我们研究了我们的用户将如何与它互动,(这项技术)将如何减轻偏见。我们问,你怎么知道一个口吃或语言障碍的人会和一个没有口吃或语言障碍的人一样受到欢迎呢?


  “团队做了很多工作,但我们在努力缩小差距,并改善它的性能。”


  改进数据集


  改进偏差的一种方法是改进数据集。Gennai用婚礼的例子来说明这一点。


  过去,如果你在谷歌上搜索婚礼图片,你会看到穿着婚纱的白人的照片,因为这个算法是在西方驱动的数据源上训练出来的。然而,这并不适用于谷歌在印度或中国的用户。


  谷歌寻求人们提交世界各地的婚礼照片以改进数据集。


  她解释说:“现在,我们从印度用户那里获得了很多信息,尤其是他们给我们发送了那么多色彩斑斓、很棒的结婚照。”


  “我们想要了解我们现有的信息来源存在多大的偏见,并创建一些偏见更小的新信息来源。”


  理解算法


  了解谷歌的算法是如何在内部工作的,有助于谷歌的团队做出更好的改变。有一个例子是谷歌搜索CEO的问题——当你在搜索栏中输入CEO的时候,你会看到穿西装的白人和芭比娃娃的图片,尽管不是同一张图片。


  当 Gennai的团队研究这些数据时,发现并不是人类的偏见造成的,而是技术上的偏见。


  “这个算法已经知道,深蓝色像素等同于CEO,而且因为白人男性更可能穿海军蓝西装,这纯粹是模型学习的方式导致的。”但(这表明)你需要仔细审查和检查你的数据,”她表示。


  谷歌用户了解公司算法的工作原理也很重要。作为谷歌用户,您现在可以检查为什么要向您提供广告,并查看算法做出的决策。您还可以检查在谷歌搜索上为什么可以看到某个链接,这取决于您以前的搜索历史。Gennai说,这是为了帮助用户更多地了解谷歌,以便他们能够信任这个平台。


  透明度也是公司AI原则的一部分。


  Gennai说:“与用户共享完整的算法毫无用处——它可能会造成更多的混乱,让人觉得我们是在故意混淆视听。(但)用可读性强的语言进行解释,将有助于人们理解谷歌的意图,即使我们做错了。”


  谷歌无法解决所有的偏见


  说到底,偏见的问题在于它来自于人类。“我们都有可怕的偏见,”Gennai说。“我们都有自己的偏见,我们现有的所有数据来源都建立在我们面前的每个人以及他们的偏见历史之上。”


  但是,仅仅因为我们可以把算法的所有错误都归咎于人类,并不意味着我们不能阻止它。相反,谷歌试图调查和解释偏见的最大来源,并试图改变它们。


  这就是为什么人工智能原则在谷歌内部如此重要,也是为什么该公司为使用其开源软件构建人工智能和机器学习算法的外部人员创建了负责任的人工智能惯例。


  她补充称:“我们正以身作则,我们希望提供有关工具和知识,以便人们能够效仿。”


Copyright@2016航天云网 All Rights Reserved 京ICP备16012914号-12京公网安备11010802022625

QQ客服

小智客服

返回顶部