新知网

您的当前位置: 首页 -> SEO

确保人工智能不作恶,谷歌为AI再上“紧箍咒”

  谷歌认为,比起杀人AI机器人,我们更该担心的是AI偏见问题。谷歌提出AI技术开发的道德准则,成立了专门的机器学习道德部门,对公司的产品和服务进行分析测试,提出改进意见,尽可能避免AI偏见的产生。

  在去年举行的谷歌会议上,谷歌当时的人工智能(AI)负责人John Giannandrea表示,我们不需要担心杀手机器人,相反,我们需要担心的是AI偏见。

  “如果要说真正的安全问题,那就是如果我们给这些系统提供有偏见的数据,那么生成的AI模型就会有偏见。”他说。

  这是谷歌过去一直在努力解决的问题。2015年6月,谷歌照片应用的算法曾经错误地将黑人分类为“大猩猩”,引发了轩然大波。因此,从IBM到Airbnb,每家公司都在努力确保自己算法不会出现类似的偏差。

  最近一段时间,谷歌为解决AI偏见又上了紧箍咒。

  对于谷歌机器学习道德、信任和安全主管Jen Gennai来说,防止出现数据和AI偏见实际上就是他的工作内容。Gennai负责领导一个跨公司的团队,对谷歌的新产品和服务进行分析和咨询,以确保所有新产品都遵守这一道德标准。

  “如果我们要打造一项新技术,我们需要确保它从一开始就走在正确的轨道上。”她说。

  谷歌制定AI技术开发七大准则

  今年6月,Google首席执行官Sundar Pichai发布了该公司的人工智能原则,指导谷歌在这些方面的工作和研究,包括确保Google员工不会制造或加强不公平的AI偏见。

  Pichai表示,AI的开发和使用将在未来许多年内对社会产生重大影响。作为AI的领导者,我们感到自己有责任做到这一点。

  这种关于人AI技术的新立场是受到谷歌出现问题的影响而提出的。除了“大猩猩”事件之外,哈佛大学研究人员Latanya Sweeney发现谷歌搜索中的存在种族歧视。当搜索类似黑人名字时,会比搜索类似白人名字更有可能出现与“被逮捕”相关的广告。

  “这些现象都是我们的部门成立的原因,不应该让我们的用户看到这些,我们需要首先阻止这些偏见的产生。”Gennai说。

  谷歌谷歌机器学习道德、信任和安全负责人Jen Gennai  现在每当谷歌推出新产品时,都会接受Gennai及其团队的严格测试。来自技术、法律、隐私和社会科学等领域的专家聚集在一起,根据谷歌制定的AI准则对每个产品进行分析。

  这种测试主要是找出产品的优缺点。“我们并不是公司里可怕的监工。”Gennai说。“我们想的是,希望公司能推出最好的产品,所以我们要找出所有可能出错的漏洞,以便解决问题。

  在谷歌智能助理给真人打电话的功能上,产品团队事先就AI如何处理不同口音做了大量工作,但Gennai的测试团队提出了一些其他问题。

  “我们研究了用户如何与之互动,如何利用技术降低AI的偏见。我们提出了问题,要如何判断用户是不是有口吃或语言障碍。产品开发团队做了很多工作,但我们试图缩小所有差距,提升产品表现。”她说。

  改进数据集质量

  改善AI偏见的一种方法是改进数据集。 Gennai举了一个婚礼的例子。

  过去,如果你在Google图片上搜索“婚礼”,得到的结果是白人穿着婚礼礼服的照片,因为算法是在基于西方人的数据源上进行训练的。然而,这对印度或中国的谷歌用户就不合适。谷歌要求人们提交世界各地的婚礼照片,以改善数据集。

  “现在,我们得到了印度用户的大量反馈,他们向我们发送了许多色彩缤纷的婚礼照片,”我们希望了解我们现有资源,创建偏见相对较小的新资源。”

  让用户也能理解算法

  了解谷歌算法的内部工作流程,有助于团队更好地进行修改。比如用谷歌搜索“CEO”时出现的问题,当你在搜索栏中键入“CEO”时,你会看到一些穿着西装打着领带的白人男子的图片。

  Gennai的团队调查数据时发现,这个现象往往并不是人为偏见,而是技术上的偏见。