当前位置: 主页 > 网站推广 >
网站推广
推荐内容
热门内容
联系我们
电话咨询:18670727589
E-mail:xiaoqiping#vip.qq.com
地址: 光大发展大厦南栋29楼(候家塘南车站旁)

我们的AI产品将易于接受合适的人类指导和控制

作者/整理:admin 来源:互联网 2018-06-10

  做出这段表述的背景:今年3月时,有媒体曝光Google的一份内部文件,显示该公司参加了五角大楼的无人机计划ProjectMaven,帮助开发应用于无人机的AI系统。
 
  在人工智能应该怎么“管”这个事上,Google大佬说话,我们要听。
 
  在国防部合作项目被员工要求关闭的风波之后,Google发布了公司在使用人工智能的十一条准则。
 
  其中包括Google进行AI研发的七个目标,和GoogleAI绝不会进入的四种应用场景,堪称AI道德规范的“谷11条”。
 
  CEO颂达尔皮柴(SundarPichai)在发布准则的公开信里,也对国防部项目争议做出了直接回应,表示今后不会让AI涉及武器化的应用,但并未“一刀切”,和政府、军方划清界限。
 
  作为AI界的带头大哥,Google并未对多如牛毛的AI应用领域一一作出指引,但这么多年经历了这么多“坑”之后,这本“谷11条”所体现出的智慧,也许会对所有关心AI道德问题的人有很大的帮助。
 
  下面,硅星人就带大家来捋一捋“谷11条”背后的思路。
 
  Google眼中“好AI”的标准
 
  首先,设计产品之初,价值观就要正。
 
  GoogleAI(原GoogleResearch)研究院克里斯汀·罗伯森曾向硅星人阐释,公司研发AI的领导思想是:按照对社会有益的原则进行设计,创造世界最棒的产品,让这些产品实现商业化,在竞争中保持领先,同时,让这些产品为世界做出贡献。
 
  Google一向强调不作恶(don'tbeevil)的价值观,但它从来不是一家慈善机构。和所有科技公司一样,它需要靠好产品赚钱,只不过,在对“好”产品的定义上,Google和许多公司明显不同。
 
  “谷11条”一上来就告诉员工,AI产品一要对社会有益,二不能加重现实社会已有的问题:
 
  1要对社会有益
 
  ...当我们思考AI潜在的应用场景时,我们将会把一系列社会和经济因素考虑进内,在那些整体收益远远超过可预见风险和弊端的领域,进行推进。
 
  2要避免制造或加强不平等的偏见
 
  AI算法和数据集可以反映、加强或减少不平等的偏见...我们将努力避免人们受到不公正的影响,尤其是与种族、民族、性别、国籍、收入、性取向、残疾以及政治或宗教信仰等敏感特征相关的人群。
 
  确保方向正确后,接下来Google要保证自己的产品是业界最棒的。准则的第三到七条列出了好产品需要满足的标准。字里行间继续体现着以人为本的理念。
 
  3要保证安全性
 
  4要对人负责... 我们的AI产品将易于接受合适的人类指导和控制
 
  5要结合隐私设计原则
 
  6要维持科学卓越的高规格
 
  7要可以用于符合原则的使用场景
 
  仔细阅读这些准则,你甚至可以找到对应的具体产品。
 
  比如准则中Google提到,“AI加强了我们理解大规模内容含义的能力,我们将努力利用AI提供高质量和准确的信息”。这说的不就是最近上线的新版GoogleNews嘛。
 
  此外可以看到,在这些对产品标准的要求中,Google还加入了对最近科技界激辩的话题的思考:比如数据隐私,比如AI发展对人类本身可能带来的威胁。
 
  对国防部合作风波的回应
 
  “谷11条”的结构是“七要四绝不”。
 
  举了七个目标后,Google提出了四个绝对不碰的领域。首先:
 
  我们不会将AI应用于:
 
  1带来或可能带来伤害的技术
 
  2武器或其他旨在给人们造成伤害的技术
 
  与此同时,又有媒体曝出Google在内部行为准则里删掉了有三处“不作恶”的文案。a