专访旷视AI治理研究院院长徐云程:AI产业不可套用互联网“先发展后治理”思路
每经记者 刘春山 每经编辑 文多
图片来源于网络,如有侵权,请联系删除
“人工智能算法下一些外卖骑手挑战交通规则,‘助手’可能变‘杀手’”;“法院认定人工智能生成文章构成作品,拥有著作权”;“‘无人车’行驶背后的权责归属引关注”……刚刚过去的2020年中,随着人工智能技术大范围应用,引起的社会伦理争议也在增多。AI造福人类的同时,外界也越来越关注人工智能该如何去治理?
图片来源于网络,如有侵权,请联系删除
就AI治理现存挑战、人工智能治理中企业的责任等问题,《每日经济新闻》记者近日与旷视首席发展官、AI治理研究院院长徐云程进行了深度的交流。以刚发布的“2020年度全球十大人工智能治理事件”为例,徐云程谈道,虽然企业的AI治理并无成熟的模式可遵循,但AI企业担负着推动AI产业可持续发展的重任,需要秉持长期主义精神,任重而道远。企业做AI治理,需要一手拿着“望远镜”,看到技术研究的过去与未来,另外一手拿着“显微镜”,将紧迫的问题放大。
徐云程同时称,技术治理的理念在以往是“让子弹飞一会儿”模式,互联网产业的发展就是先发展后治理。“但人工智能技术,因为它的影响力巨大和迭代速度加快,所以业界现在越来越有共识,不能套用以前先发展后治理的思路,要边发展边治理。”徐云程呼吁,当前对人工智能伦理的担忧已经上升到伦理风险的高度,各界应该尽快采取行动。
徐云程 图片来源:受访者提供
企业人工智能治理需要自上而下推行
NBD:目前,人工智能治理存在哪些挑战?
徐云程:一方面,大众对于人工智能的技术和产品效用存在严重的信息不对称,如果此时又缺少充分的沟通,很容易产生负面认知,从而对人工智能产业的发展造成不利影响。
再则就是,人工智能的伦理问题落到企业语境下要成为可执行的企业治理行动,而这个过程是一个典型的交叉学科范畴。如何以多方参与的形式、运用综合手段来推动企业的发展,对于企业来说是个巨大考验。
三是我们发现许多新产生的问题目前还没有得到人们的普遍重视,更缺少专门的深度研究。这造成了在AI治理的领域,问题远远多于答案。
NBD:怎么理解人工智能算法的黑箱特性?
徐云程:大家对于AI进行深度学习(这点上),算法黑箱是海内外共通的担忧。在现在的技术水平下,深度学习算法有它自己的黑箱特性。这就要求我们在进行产品研发和设计时,考虑到深度学习算法的必要性、是否有替代技术。另外就是,我们要关注深度学习算法精确程度是否足以商业化,是否会有误判的情形。
NBD:旷视的人工智能治理是如何推行的?
徐云程:AI治理这件事情在旷视先是自上而下推行,需要高层发起和推动。现在慢慢变成了自下而上——各层的员工开始有感知、有意识,正逐渐成为“大众运动”。
对内,AI治理从研发学术、产品工程、客户渠道和运营管理四个方面开展了务实的工作。在新产品产生的过程中,我们希望在产品早期规划研发的时候,就要加入AI治理的介入,把AI伦理作为一个打分项,整体考虑要不要做这样一个产品。在客户管理沟通中,我们在每件软、硬件产品中都放入了《正确使用人工智能产品倡议书》,倡导客户和合作伙伴一起加入AI治理的行列。
NBD:你在AI治理研究院的研究方向是什么?
徐云程:人工智能最重要的是“数据”问题。数据隐私保护与数据安全,是需要全社会长期关注的事情,这不光涉及到科技伦理问题,也涉及到法律法规的制定,以及技术应用本身。这其中需要相关各方去界定隐私的含义和边界、数据使用的规则和惩戒,以及如何形成对各种数据管理的多元共治。
再则需要思考,人工智能产业哪些场景下技术的产品化面临红线。这需要探索企业内部风险评估与管理的路径,通过将目标、人员、规则、机制、技术进行有机融合,形成一套管控体系。
体验AI写诗。图片来源:每经记者 张建 摄(资料图)
要用“显微镜”将紧迫的问题放大看
NBD:企业以商业利益为主,进行AI治理必然增加成本?
徐云程:大众对于伦理道德认知有一个循序渐进的过程。对于企业来说,一个负责任的企业、有中长期发展规划的企业,才是一个稳健型的企业。企业的AI治理是个长效机制,我们看到很多两年前不是问题的现象,在今天都成为了潜在的风险,或者成为一个合规成本。
所以,相较于回报,AI治理的投入就并不显得大了。这并不是只要重金投入就能做好的事情,更多的是大家意识到这件事情的重要性,值得专心去做。我们很多研究课题是联合外部一流的研究机构一起做的。专业的人做专业的事,企业也没有必要去培养几十人的研究团队、天天做和业务没有关系的课题了。
对于产业发展的治理,以前经常碰到这种思潮,即科技创新需要“让子弹飞一会儿”,大家都希望在开始时给技术一段自由发展的时间,当问题累积到一定程度之后,再来研究解决的方法。所谓“先发展后治理”的模式就是这样产生的,互联网时代是这样,其他技术的治理也是这样。但随着人工智能技术越来越强大,它的影响力更深更广,迭代速度也更快,所以业界现在越来越有共识,不能套用以前治理的老方法,而是要“边发展边治理”。当然,这样也引发了下一个问题,即在创新往前冲的过程中,怎样才能做到对风险的预判?
NBD:近两年,外界对人工智能治理的关注有什么变化?
徐云程:我们刚开始是通过海外媒体关注到人工智能治理这件事情的。在2019年,海外媒体和旷视做交流的时候,三句不离和AI伦理有关的事情,以及企业在做哪些治理工作。因此,初期我们更多是跟海外沟通并寻找一些全球可借鉴的经验。
第二个阶段是2019年中后期,我们看到国内社交媒体上越来越多的人开始关注AI技术是不是在向可持续的、负责任的方向发展。因此,我们意识到,这是个全球性话题,需要社会各界、国内外各方共同参与。
到2020年第三个阶段,旷视开始在企业内部管理上做更多的反思和突破。随之发现,在企业运营的流程中和人员培训的过程中,AI治理对企业的健康发展可以带来很多价值,也可以具有很多优势。
NBD:在做人工智能治理时,你认为企业的态度应该是什么?
徐云程:技术的发展、商业的应用、规则的制定应该是相辅相成的,越多的交流越能让产业健康发展;同时AI治理的每一步都要反映到日常工作中。虽然企业的AI治理并无成熟的模式可遵循,但我们正在秉持一贯的长期主义精神,用大胆向前、小心求证的方式探索一条适合自己的道路。
所以,企业做AI治理,需要一手拿着“望远镜”,一手拿着“显微镜”。“望远镜”是指帮助企业看到技术研究的过去与未来,国内外的差异,综合思考问题、解决问题。“显微镜”是指将紧迫的问题放大,仔细研究,厘清其中缘由,并快速解决。企业只有充分发挥“望远镜”和“显微镜”的综合作用,才能把握正确的发展方向,真正实现用人工智能造福大众。
推荐阅读:
版权声明
本文仅代表作者观点,不代表xx立场。
本文系作者授权xx发表,未经许可,不得转载。