产品
解决方案
AI将是引发社会深刻变革的新一波科技浪潮。“可持续发展的AI”,将会是AI技术与人类社会长期共存的基本形态,也是旷视致力推动的行业发展的正确方向。
如何建立可持续发展的AI?这不仅是学界、AI产业界、监管机构、政府等各界都关注的问题,更是每一家AI企业每天都在思考的内容。肩负“用人工智能造福大众”为使命的旷视,自2019年7月对外发布《人工智能应用准则》之后,在AI治理方向上的探索和实践就从未停止过。
这并不是一条有成熟模式、既定规划的清晰的路,而是一条汇集各种考量、在摸索中前行的探索之旅。中国,乃至全球的AI治理大环境是怎样的?旷视为什么要走这条路?他是如何落地推进的?面对各种问题,他是如何思考、如何决定的?这种种心路历程,都收录在旷视与北京大学光华管理学院、北京大学管理案例研究中心合作撰写的《旷视科技:人工智能治理的新征程》当中。这份案例不仅是旷视在将近一年的时间里,对自身治理实践的回顾和梳理,更是包含了对AI治理整体的深刻思考和洞察。
2020年6月13日,在首届北大光华案例日论坛上,这份凝聚了北大光华管理学院几位老师精心采写、旷视多个部门支持配合访谈的案例《旷视科技:人工智能治理的新征程》首次亮相,并以旷视首席运营官徐云程“云对话”北大光华卢瑞昌教授的方式精彩呈现在公众面前。
旷视首席运营官徐云程进行主题分享——发展可持续的人工智能
如果说AI的广泛应用是一座高山,那么现阶段我们还处于半山腰。不同于其它先进科技在初期可以先发展再治理的做法,AI在一开始就被各界关注。为什么AI行业如此与众不同?而且目前许多行业都有各自的伦理要求和治理准则,AI行业为什么不能拿来借用,而是要重新探索?北大卢瑞昌教授在案例的开始就提出了这些深刻的问题。
旷视徐云程认为,正是由于AI技术的普遍性与其对于社会影响的深刻性,促使社会各界在AI的商业化还在比较早期的时候,就非常积极的在探索AI治理的这条道路。卢瑞昌教授完全同意这个看法,他认为人工智能行业将带来第四次工业革命,颠覆许多现有行业。AI所能带来的突破不只是某一领域的突破,而是整个社会关系和生产关系的解构和重组。因此,由于人工智能行业影响的深度和广度,我们可能无法承受“先治理,后发展”带来的结果。
事实上,无论是国外还是国内,AI技术引发的伦理道德问题已频频见诸报端。公众对AI将取代人类工作等各种担忧也在日益加剧。在现阶段就对AI治理进行积极探索是一件刻不容缓的事情。
作为参与并见证了中国AI商业化进程的旷视,也经历了对AI治理逐步认清的过程。在接受案例访谈时,旷视联合创始人兼CEO印奇提到他在与国内外学者、产业界人士、投资人等各界交流的过程中,AI治理开始作为一个高频词汇进入他的视野,大家都在关心AI行业如何能秉持长期主义发展思路,成长为造福大众的“好生意、长久的生意”。他认为,一个行业只有被大众拥抱,才能有长远的发展;而旷视作为AI行业的从业者,就肩负了建立“可持续发展的AI”这一责任。
北大光华卢瑞昌教授“云对话”徐云程
尽管近些年国内外学界对于AI治理有着诸多讨论,但大多数集中在理论层面。关于企业如何进行AI治理的落地,目前尚未有成熟的既定模式可循。企业做AI治理的边界在哪里?应该做什么?做到什么样的程度?是否需要上升到公司战略的高度?毕竟在公司推行一项制度,大家的认知可能是不一致的,更多的要求,可能意味着更高的成本。卢瑞昌教授就是带着这些问题,开始了与旷视各位受访人的对话。经过了将近一年的探索,旷视在尝试给出一份AI企业治理的答卷。
首先是商业利益和企业社会责任的平衡。企业作为以盈利为目的的商业机构,如何建立一套适宜公司自身发展需求的人工智能治理的体系,既以负责任的态度承担企业社会责任,又不阻碍甚至是促进业务的发展,是摆在旷视在进行AI治理落地时的首要考量。这其中牵扯到技术研发、产品应用、场景落地、商业竞争等各个方面。旷视一直都在小步迭代中谨慎前行。正如在访谈中旷视科技首席科学家、研究院院长孙剑所说:“技术研究与探索本无禁区,但是作为存在商业化目标的企业来说,无论是不是高科技企业都应该有禁区。”
其次是企业道德标准和个人道德标准的统一。对外交往中,每个人的道德标准都是不一样的,看问题的角度更是各有侧重。这时就需要企业能够在最初创立的使命、愿景、价值观的基础上,协同大家的意见,形成自己的道德标准,与员工统一认知。这也是个反复商榷、磨合的过程。正如徐云程在论坛上坦言,有很多次在和产品团队讨论新产品的某个功能或设计时,会对其是否符合企业的AI伦理观而争论,大家会有不同的看法,但是最终都能够通过开放性地讨论和深入思考而形成共识。这个过程中,公司管理层的坚持功不可没。
“治理总是有成本的,可以在事前投入,也可以在事后付出。当你不太确定的时候,你应该把治理的成本作为一个预防的成本,宁可慢一点。”徐云程说,“幸运的是当我们以长期主义的思维方式作为指导原则后,最后得到的是一个更稳健的成长。”
综上所述,卢瑞昌教授认为企业的AI治理要回归公司的本质,包括三个方向:第一,公司是利益共同体,AI治理应当符合公司利益;第二,公司是社会的公司,AI治理应当符合社会利益;第三,公司是创业者的公司,AI治理应当符合核心创业者的理想和抱负。这也是旷视在推进“可持续发展的AI”过程中的践行方向。
旷视一直是行业内AI治理的积极推动者。2019年初,在国家科技部的推动下“国家新一代人工智能治理专业委员会”建立。旷视作为委员之一,全程参与并联合发布新一代人工智能治理八项原则,发展负责任的人工智能,推进我国人工智能健康发展。
旷视坚信AI治理需要理性的关注,深度的研究,建设性的讨论,以及坚持不懈的行动。2019年7月,旷视发布了《人工智能应用准则》,从正当性、人的监督、技术可靠性和安全性、公平和多样性、责任可追溯、数据隐私保护等六个维度,作为在公司在AI治理上的依据,并影响同行和合作伙伴重视人工智能的治理,呼吁各界共建可持续发展的AI生态。
为了将《准则》的内容落到实处,旷视本着坚定不移的推进态度、务实的落地机制设计和与各界广泛合作的开放心态,从制度与机制的设立、科研、产品、客户管理等多方入手,初步建立并打开了公司推动AI治理的局面。
首先,从机制保障上,旷视成立了“旷视人工智能道德委员会”,是公司人工智能治理事项最高的决策机构,向董事会汇报,其中包括外部委员。同时,在公司内部成立了“旷视人工智能道德管理委员会”,从研发学术、产品工程、客户渠道、运营管理四个方向进行具体推进。目前,已经在数据隐私保护的研发项目、《正确使用人工智能产品的倡议书》方面切实落地。
其次,从对外交流、促进联合研究上,旷视成立了“旷视AI治理研究院”。2020年初,旷视发布了一篇名为《全球AI治理十大事件》的文章,梳理了2019年海内外共同关心的10件AI治理典型事件。这篇文章在微博上引起了热烈反响,点击量在短短几天内超过了2000多万。根据网友的反馈,旷视逐步从中确定了未来两大类课题研究方向,即:基于AI应用实际场景的可信AI治理探索,技术发展衍生的数据与隐私保护规范。
不积跬步无以至千里。建立“可持续发展的AI”,旷视正坚定信念,执着前行。正如徐云程所说:“在我们面前的是一座巍峨的高山。新一代人工智能的领军者肩负着建设受人尊敬的中国企业的使命,在AI治理的话题上,旷视希望与社会各界协同共创,一起勇攀高峰。”
AI将是引发社会深刻变革的新一波科技浪潮。“可持续发展的AI”,将会是AI技术与人类社会长期共存的基本形态,也是旷视致力推动的行业发展的正确方向。
如何建立可持续发展的AI?这不仅是学界、AI产业界、监管机构、政府等各界都关注的问题,更是每一家AI企业每天都在思考的内容。肩负“用人工智能造福大众”为使命的旷视,自2019年7月对外发布《人工智能应用准则》之后,在AI治理方向上的探索和实践就从未停止过。
这并不是一条有成熟模式、既定规划的清晰的路,而是一条汇集各种考量、在摸索中前行的探索之旅。中国,乃至全球的AI治理大环境是怎样的?旷视为什么要走这条路?他是如何落地推进的?面对各种问题,他是如何思考、如何决定的?这种种心路历程,都收录在旷视与北京大学光华管理学院、北京大学管理案例研究中心合作撰写的《旷视科技:人工智能治理的新征程》当中。这份案例不仅是旷视在将近一年的时间里,对自身治理实践的回顾和梳理,更是包含了对AI治理整体的深刻思考和洞察。
2020年6月13日,在首届北大光华案例日论坛上,这份凝聚了北大光华管理学院几位老师精心采写、旷视多个部门支持配合访谈的案例《旷视科技:人工智能治理的新征程》首次亮相,并以旷视首席运营官徐云程“云对话”北大光华卢瑞昌教授的方式精彩呈现在公众面前。
旷视首席运营官徐云程进行主题分享——发展可持续的人工智能
如果说AI的广泛应用是一座高山,那么现阶段我们还处于半山腰。不同于其它先进科技在初期可以先发展再治理的做法,AI在一开始就被各界关注。为什么AI行业如此与众不同?而且目前许多行业都有各自的伦理要求和治理准则,AI行业为什么不能拿来借用,而是要重新探索?北大卢瑞昌教授在案例的开始就提出了这些深刻的问题。
旷视徐云程认为,正是由于AI技术的普遍性与其对于社会影响的深刻性,促使社会各界在AI的商业化还在比较早期的时候,就非常积极的在探索AI治理的这条道路。卢瑞昌教授完全同意这个看法,他认为人工智能行业将带来第四次工业革命,颠覆许多现有行业。AI所能带来的突破不只是某一领域的突破,而是整个社会关系和生产关系的解构和重组。因此,由于人工智能行业影响的深度和广度,我们可能无法承受“先治理,后发展”带来的结果。
事实上,无论是国外还是国内,AI技术引发的伦理道德问题已频频见诸报端。公众对AI将取代人类工作等各种担忧也在日益加剧。在现阶段就对AI治理进行积极探索是一件刻不容缓的事情。
作为参与并见证了中国AI商业化进程的旷视,也经历了对AI治理逐步认清的过程。在接受案例访谈时,旷视联合创始人兼CEO印奇提到他在与国内外学者、产业界人士、投资人等各界交流的过程中,AI治理开始作为一个高频词汇进入他的视野,大家都在关心AI行业如何能秉持长期主义发展思路,成长为造福大众的“好生意、长久的生意”。他认为,一个行业只有被大众拥抱,才能有长远的发展;而旷视作为AI行业的从业者,就肩负了建立“可持续发展的AI”这一责任。
北大光华卢瑞昌教授“云对话”徐云程
尽管近些年国内外学界对于AI治理有着诸多讨论,但大多数集中在理论层面。关于企业如何进行AI治理的落地,目前尚未有成熟的既定模式可循。企业做AI治理的边界在哪里?应该做什么?做到什么样的程度?是否需要上升到公司战略的高度?毕竟在公司推行一项制度,大家的认知可能是不一致的,更多的要求,可能意味着更高的成本。卢瑞昌教授就是带着这些问题,开始了与旷视各位受访人的对话。经过了将近一年的探索,旷视在尝试给出一份AI企业治理的答卷。
首先是商业利益和企业社会责任的平衡。企业作为以盈利为目的的商业机构,如何建立一套适宜公司自身发展需求的人工智能治理的体系,既以负责任的态度承担企业社会责任,又不阻碍甚至是促进业务的发展,是摆在旷视在进行AI治理落地时的首要考量。这其中牵扯到技术研发、产品应用、场景落地、商业竞争等各个方面。旷视一直都在小步迭代中谨慎前行。正如在访谈中旷视科技首席科学家、研究院院长孙剑所说:“技术研究与探索本无禁区,但是作为存在商业化目标的企业来说,无论是不是高科技企业都应该有禁区。”
其次是企业道德标准和个人道德标准的统一。对外交往中,每个人的道德标准都是不一样的,看问题的角度更是各有侧重。这时就需要企业能够在最初创立的使命、愿景、价值观的基础上,协同大家的意见,形成自己的道德标准,与员工统一认知。这也是个反复商榷、磨合的过程。正如徐云程在论坛上坦言,有很多次在和产品团队讨论新产品的某个功能或设计时,会对其是否符合企业的AI伦理观而争论,大家会有不同的看法,但是最终都能够通过开放性地讨论和深入思考而形成共识。这个过程中,公司管理层的坚持功不可没。
“治理总是有成本的,可以在事前投入,也可以在事后付出。当你不太确定的时候,你应该把治理的成本作为一个预防的成本,宁可慢一点。”徐云程说,“幸运的是当我们以长期主义的思维方式作为指导原则后,最后得到的是一个更稳健的成长。”
综上所述,卢瑞昌教授认为企业的AI治理要回归公司的本质,包括三个方向:第一,公司是利益共同体,AI治理应当符合公司利益;第二,公司是社会的公司,AI治理应当符合社会利益;第三,公司是创业者的公司,AI治理应当符合核心创业者的理想和抱负。这也是旷视在推进“可持续发展的AI”过程中的践行方向。
旷视一直是行业内AI治理的积极推动者。2019年初,在国家科技部的推动下“国家新一代人工智能治理专业委员会”建立。旷视作为委员之一,全程参与并联合发布新一代人工智能治理八项原则,发展负责任的人工智能,推进我国人工智能健康发展。
旷视坚信AI治理需要理性的关注,深度的研究,建设性的讨论,以及坚持不懈的行动。2019年7月,旷视发布了《人工智能应用准则》,从正当性、人的监督、技术可靠性和安全性、公平和多样性、责任可追溯、数据隐私保护等六个维度,作为在公司在AI治理上的依据,并影响同行和合作伙伴重视人工智能的治理,呼吁各界共建可持续发展的AI生态。
为了将《准则》的内容落到实处,旷视本着坚定不移的推进态度、务实的落地机制设计和与各界广泛合作的开放心态,从制度与机制的设立、科研、产品、客户管理等多方入手,初步建立并打开了公司推动AI治理的局面。
首先,从机制保障上,旷视成立了“旷视人工智能道德委员会”,是公司人工智能治理事项最高的决策机构,向董事会汇报,其中包括外部委员。同时,在公司内部成立了“旷视人工智能道德管理委员会”,从研发学术、产品工程、客户渠道、运营管理四个方向进行具体推进。目前,已经在数据隐私保护的研发项目、《正确使用人工智能产品的倡议书》方面切实落地。
其次,从对外交流、促进联合研究上,旷视成立了“旷视AI治理研究院”。2020年初,旷视发布了一篇名为《全球AI治理十大事件》的文章,梳理了2019年海内外共同关心的10件AI治理典型事件。这篇文章在微博上引起了热烈反响,点击量在短短几天内超过了2000多万。根据网友的反馈,旷视逐步从中确定了未来两大类课题研究方向,即:基于AI应用实际场景的可信AI治理探索,技术发展衍生的数据与隐私保护规范。
不积跬步无以至千里。建立“可持续发展的AI”,旷视正坚定信念,执着前行。正如徐云程所说:“在我们面前的是一座巍峨的高山。新一代人工智能的领军者肩负着建设受人尊敬的中国企业的使命,在AI治理的话题上,旷视希望与社会各界协同共创,一起勇攀高峰。”