人工智能在为人类带来便利的同时,也引发了一系列有关道德、伦理和实践层面的风险和挑战。科技公司又将如何看待?钛媒体就这一议题采访到了腾讯集团高级执行副总裁刘胜义。 钛媒" />

金凤凰中特网 湖南有一位视觉障碍的用户

c?钛媒体对话腾讯刘胜义:科技公司如何“以善为本”?_IT新闻_博客园
ontent">   人工智能在为人类带来便利的同时,也引发了一系列有关道德、伦理和实践层面的风险和挑战。科技公司又将如何看待?钛媒体就这一议题采访到了腾讯集团高级执行副总裁刘胜义。  钛媒体编辑:李程程  科技浪潮愈演愈烈,有的人似乎只能站到新事物的对立面。  腾讯高级执行副总裁刘胜义向钛媒体讲述了一个故事。大约在 2009 年,湖南有一位视觉障碍的用户,在使用 QQ 聊天时,对方发来了一个表情,当时的读屏幕软件只能把这些表情读取为空白信息。结果这位用户以为受到了别人的戏弄,给他带来了很大的困扰。  后来,QQ 团队收到了这个反馈,在手机 QQ 上开发出了表情读取功能,让盲人用户同样可以感受到别人给他发来什么表情,而同时,他们也可以像其他人一样,发送表情来传达的自己想法和情感。  再之后现在的 QQ,已经不限于读取表情。通过接入腾讯的 AI 能力,QQ 可以很方便地帮助视障用户提取好友发来图片上的文字,可以同样“阅读”,同样在 QQ 里与其他人“斗图”,展开表情包大战,以此拓展自己的社交圈子和能力。  “你可能觉得你做的事情没有什么了不起,但是你做的事情对我来讲,就是我的世界的全部,因为你做的事情让我能够听得到,我摸得到,我感受得到。”一位用户给产品经理发来了这样的反馈。  AI 的挑战:“人性”还是“智能”先行?    新科技、互联网和数字化进程在深化,宏观如社会组织、结构、运作,微观到个体的生活方式、价值观和意识形态,都发生着潜移默化却也翻天覆地的更新。  人工智能已经深入到人类工作与生活的日常,但它也正在面临指责和质疑。  斯史蒂芬·霍金(Stephen Hawking)曾对 AI 提出过疑虑: “强大的人工智能的出现既能带来最好的结果,也能带来最坏的结果。而我们还不知道究竟会是哪一个。”  最近一则 AI 使人恐惧的事件是,科技公司亚马逊正在利用 AI 监管仓库工人的工作效率,甚至 AI 可以自动开除人类工人。据美国科技媒体 The Verge 报道,在亚马逊的仓库里,一个工人每小时必须完成几百个包裹的包装工作;强大的 AI 系统不仅能跟踪每个人的工作进度,还能精确计算工人消极懈怠的“摸鱼”时间(Time Off Task)。  更为可怕的是,亚马逊的 AI “监工”可以根据实时数据,生成在线解雇指令,直接绕过主管开除工人。  作为一家商业公司,亚马逊利用 AI 提升管理效率无可厚非,但一些批评人士认为,亚马逊利用的人工智能系统只是看到了数字,而不是活生生的人。它被看成了是泰罗制的沿袭——在那样的工厂里,找不出一个多余的工人,每个工人都像机器一样时刻不停地工作。  亚马逊的物流员工的身体和心理健康也受到了的影响。今年 2 月,美国肯塔基州(Kentucky)一位罹患慢性膀胱炎症的前员工愤怒地将亚马逊告上法庭,认为亚马逊克扣他正常上厕所的时间,索赔 300 万美元。  同时,英国一家劳工保护平台 Organise 的调查显示,有 74% 的英国亚马逊仓库工表示,不敢在上班期间正常去厕所,甚至有的人选择用塑料瓶解决排泄问题。  技术乐观主义的潮水已经不可避免的退去,现在很多人也清醒地意识到,“人性”比“智能”更为重要。尽管人工智能是强大的工具和助手,205555凤凰天极网,但人类必须负责任地对其加以引导并让其富有人文关怀。  在上周,阿联酋迪拜举办的“AI Everything Summit”(AI 万物峰会)上,作为科技公司的代表之一,刘胜义提出“Responsible AI (负责任的人工智能)”理念。腾讯公司高级执行副总裁、集团市场与全球品牌主席刘胜义在 AI Everything Summit 上  这场大会由阿联酋人工智能部举办,众多国际组织、阿联酋政府官员、科技行业领袖、学术机构、AI 行业初创企业等悉数到场,很多知名技术公司谈论的主题都有关科技伦理。  刘胜义认为,随着科技创新进入深水区,人工智能在为人类带来便利的同时,还引发了哲学、伦理、实践等层面的风险和挑战。  “在通向可持续发展的道路上,为了尽量降低人工智能可能产生的负面影响,我们需要的并不是‘中立的科技’,而是‘科技向善’和以及‘AI 向善’。”刘胜义在演讲中表示。  从“受人尊敬”到“科技向善”    当然,这不是腾讯首次传达“科技向善”(Tech for good)相关的理念,从公司高管几次对内对外发言都有迹可循。  去年底,在 2018 年度腾讯员工大会上,腾讯微信事业群总裁张小龙在发布演讲时说,“善良比聪明更重要。因为 AI 比你更聪明,更懂套路,但你可以比他更善良。”  今年“两会”期间,腾讯集团董事局主席兼 CEO 马化腾,以全国人大代表的名义,把“科技向善”“负责任创新”“创新与伦理并重”等理念写入了提案中。  就在前天(5 月 6 日)福州召开的数字中国建设峰会上,马化腾正式把“科技向善&rdquo,正版频果报2018报彩图;是未来腾讯的愿景与使命,“科技能够造福人类;人类应该善用科技,避免滥用,杜绝恶用;科技应该努力去解决自身发展带来的社会问题。”  在接受钛媒体等专访时,刘胜义说,他提倡的“Responsible AI”与马化腾“科技向善”理念不谋而合,而在此之前他们并没有沟通过相关话题。这成为了腾讯总办正在在思考重要问题,他们正把它写入公司的价值观中。  大概在两周前,他向钛媒体回忆道,腾讯总办组织了一次会议,讨论的是一些务虚的话题——腾讯的灵魂是什么?腾讯的愿景和使命是什么?  “我加入公司已经 13 年了,把自己生命的大部分时间奉献给了腾讯。但是在这 13 年的过程中,大家关注的都是业务、产品和商业模式等话题,对务虚的事情讨论较少。”刘胜义对钛媒体说。  当时,有人抛出了一个问题,是不是应该大胆地把“科技向善”四个字植入腾讯的使命和愿景?  总办为此讨论了近四个小时,他们的顾虑在于:现在提出这样的价值观是否过早?如果我们做不到怎么办?  直到后来,马化腾站出来说,当年创办腾讯的时,想做的是一家“最受人尊敬”的互联网公司。“整个过程中,也是被人家骂骂打打滚过来的。现在确实是到了一个时间段,我们的产品经理,我们每一个腾讯人,如果不去相信科技向善的话,那很麻烦了。”  刘胜义认为这一场讨论十分必要,因为它涉及到后来者的方向,或者说他们应该给腾讯传承些什么——必须要让未来加入腾讯的年轻人知道,他奉献的青春是为了什么?  “我们不可能永远都坐在现在这个位置,总有一天腾讯会没有我们的时候。那时,我们留给腾讯的是什么?如果现在不把‘科技向善’去教导去引导刚刚加入公司的 22 岁左右的那些小伙子,那会是一种非常可怕的情况。”刘胜义说。  但是问题来了,在科学技术迭代和商业利益交织的复杂社会体系中,如何判断什么是善,什么又是恶?  Google 曾经提出了“Do the right thing: don't be evil.”(做正确的事:不作恶。)的企业原则,并把它写入了首次公开募股的招股书。  Google 声称,“不作恶”已经成为他们的身份以及他们自称的核心价值观念的核心支柱之一。这也一度成为科技公司们推崇的“道德守则”。  但 Google 内部,不作恶原则也遭到了弱化。2015 年,因当时正因参与美国国防部的人工智能项目 Project Maven ,该项目用于改善战场上无人机项目攻击。  虽然最终 Maven 计划的的反对者取得了胜利,但“不作恶”的字眼已经于 Google 行为准则开头段落中被移除,仅留下结尾一处。  那么,腾讯眼中的“AI 道德标准”是什么?科技向善应该坚持什么原则?  刘胜义说,东方国家的推崇的“科技向善”和西方的“不作恶”稍微有点本质的区别。“善”不应该由法律来规定,但应该是一种文化共识,古人提出“人之初性本善”在 AI 时代同样值得倡导。科技公司需要做到的是,利用技术把人类的善心最大程度地激发出来。这不仅仅是不作恶,而是要推进向善。  比如说,很多科技公司拿技术去做中台,利用数据去挖掘商业价值,但 AI 应该让信息更大程度的透明化,大数据应该发挥更大的价值。  对于 AI 已经深入到技术底层的腾讯而言,开发者必须坚持的基础原则是 ARCC:普遍可用的(available)、可靠的(reliable)、可被理解的(comprehensible)、可控的(controllable)。  具体到应用层面,以刘胜义擅长的广告业务为例,AI 应该帮助人节省购物决策时间,更好地去做家庭的财务理财,而不是去买一些很没有必要的东西,以及付出的价格与产品的质量和实际价值有很大溢出的产品。“这是我心目中的广告乌托邦。”  在规范和创新中制衡 AI    但也有一种观点认为,人工智能目前还处在一个初级阶段,现在过多地讨论方向和原则问题,会对技术的进步造成一种障碍。而过早地制定规矩,很可能会扼杀技术创新,应该先让 AI 跑起来,再去制定规则。  对此,刘胜义告诉钛媒体,技术的进步与人文伦理道德的关系,“不是 This or That(这个或那个)的关系,它是一个 This and That(这个和那个)的关系”。有时候先把规则制定好,有序地去规范原则和方向,反而有助于一个具备巨大潜能的领域得以健康的发展。  技术的进步会将全社会推向新的运作方式,动摇了传统人们的生活形态,从通信、娱乐,甚至是交易与出行。  与历史上的技术革命相比,数字化尤其是人工智能,导致的信息鸿沟可能会进一步割裂人类社会,加剧不平等,并对社会带来巨大的挑战。  新科技取代了传统的工具,对于不具备新技能和甄别能力人来说,在某种程度上则是权力的剥夺,这也是科技引发的效应,也是该负责的原因。  国际协议必须存在,在这之后,可以把协议演变成原则,在发展成为规章制度和法律。欧盟《一般数据保护条例》(GDPR)就是一个例子。这是全球第一个针对数据权利和安全责任的立法尝试,某种程度上是对科技界的发展一种制约,虽然目前在全球范围内还难以达成共识,但是却是很有必要的指导原则。  产品拥有数亿用户的腾讯,在算法公平的前提下,“一个都不能少”、“全民信息无障碍”的理念必须得到落地与传播。  上述手机 QQ 为视障用户提供的方案是其中一例。由于人口基数大,中国地区的残疾人数目不是少数。据中国残疾人联合会发布的数据显示,截至 2010 年末,我国残疾人总人数 8502 万人。受到生理或者心理条件所限,他们或多或少会表现出对新科技的不擅长或者缺乏兴趣。  但无障碍特性可以降低他们的接受门槛。类似这样的无障碍特性,目前手机 QQ 一共适配了 1934 个,QQ 空间里的无障碍功能全年有超过 1 亿人次在使用。  在去年 3 月,腾讯还“无障碍 AI 技术”对外开放,其中包括 OCR 文字识别、语音合成、图片转语音三大无障碍 AI 技术,将通过“多媒体 AI 平台”小程序上的“无障碍 AI ”入口,为企业、开发者提供接入服务。  在这场静默无声的数字变革里,他们不再是缺位的一方,不仅可以参与到主流的科技产品之中,运用 AI 等技术触达到科技浪潮之中。  “讲这些不是为了去宣传腾讯,而是把这种理论累积,再变成案例,让其他的公司都觉得,他们也可以去不断地优化。”刘胜义说。(本文首发钛媒体,采访、撰文/李程程)