郭锐|促进AI伦理的公司治理
編者按:今天,我们当然有理由对AI伦理的前景忧虑,特别是中美AI伦理开始“探底竞争”之后。这使得中美人工智能公司通过公司治理来实践AI伦理的外部动力有所减弱。 然而,我们依然对AI伦理的未来抱有希望,因为越来越多的有识之士已经认识到AI伦理的真正价值:如同汽车的刹车系统一样,AI伦理是保障高速发展的技术造福人类的关键。本文为书评专栏作者郭锐最新专栏。
人工智能(AI)的前沿技术,如今几乎都集中在公司手中。这自然引发了一个根本性的质疑:以盈利为目标的商业公司,能否真正将AI技术导向造福人类的方向?公司的商业性质是否会扭曲AI的潜在益处?
如果用公司治理来指代换一种处理公司相关各方(股东、经理、债权人、消费者、员工等)的权力分配和冲突管理的机制,它的确蕴含着调和这一伦理矛盾的可能。 毕竟,即便在商业公司的语境中,公司治理的核心问题——代理问题 ——本质上就是一个伦理问题。在商业公司语境中,股东(通常被视为委托人)的目标通常被设定为利润最大化,而公司管理层(代理人)则负责执行。公司法的整个体系,在很大程度上,都是为了解决这个代理问题。在公司法和其他管制规则之下,公司治理可以灵活应对代理问题。故此,一般意义上的公司治理有巨大的潜力: 公司治理规则主要是私法性质的,并与公法(监管和法院判决)相结合,这为我们提供了巨大的想象空间。
由于公司治理规则可以由企业灵活构建,以服务于利润之外的其他目标,在AI兴起之后,许多人开始实验通过公司治理规则来搭建与传统商业公司不同的组织形式,以便调和盈利目的促进AI伦理等需求。OpenAI就是其中一个。很多人把OpenAI的组织形式归类为非营利组织,因为本质上OpenAI的新公司治理是通过一套不同于商业公司的规则来构建的。例如,OpenAI的决策机构是董事会,但参与决策的董事并非由股东(财务投资者)选任,也无需对股东负责。2023年OpenAI公司发生的动荡,动摇了很多人对新组织形式的信心。2023年11月,OpenAI董事会突然解雇了CEO Sam Altman,理由是他“在沟通中不够坦诚”。这一事件引发了内部的巨大动荡,大量员工威胁离职。OpenAI最初的理想是开发安全的、对人类有益的AI,但在商业竞争和快速发展的压力下,这一理想似乎受到了挑战;董事会认为CEO Sam Altman发布ChatGPT及后来的重要商业决策已经背离了OpenAI的宗旨,包括首席科学家Ilya Sutskever因此出走OpenAI。Altman与董事会进行了谈判,但最终未能达成一致。随后,微软宣布Altman和OpenAI的其他核心成员加入微软,领导一个新的AI研究团队。最终, OpenAI的董事会进行了重大改组,Altman重新担任CEO, 并承诺加强公司治理,以确保AI伦理的落实。最终,OpenAI新董事会宣布,将会把OpenAI改组为商业公司。
从OpenAI出走的首席科学家Ilya Sutskever,随后创立了Safe Superintelligence Inc. (SSI)。SSI的成立,本身就是对OpenAI“背叛理想”的一种回应。SSI在其官网上发布了一份简短的使命声明:“我们的使命是构建安全的超级智能系统。这是我们唯一的焦点,没有商业压力干扰。” 这家极为低调的公司在加州和以色列设有办公室,但至今没有任何产品发布,完全依靠Sutskever的个人声誉,就获得了巨额融资,估值高达数百亿美元。投资者相信Ilya, 因为他宣布正在开发一种和OpenAI完全不同的技术路径的AI模型,一条“不同的攀登之路”。如果说OpenAI的动荡实践,体现的是市场环境对实践AI伦理的压力,SSI得到投资界的高度认可,或许反映了市场与AI伦理关系的另一面。
如哈佛法学院的Roberto Tallarita教授所言,用公司治理来解决AI的安全问题,恐怕是“公司治理不可承受之重”。Tallarita教授最近在《哈佛商业评论》上发表了一篇文章,题为《AI正在测试公司治理的极限》。他指出,即使公司决策者对共同利益有最坚定的承诺,公司治理也不擅长应对关乎人类的生存风险的AI安全问题。Tallarita 认为,公司治理仍然是将利润激励与道德和安全的 AI 目标相结合的理想途径,但仅靠公司治理是不够的。一个值得公众信任、并能有效问责像OpenAI这样的AI公司的治理框架,须同时包括容纳多样化和包容性的利益相关者参与的公司治理和政府监管。这样的治理框架,才能引导AI公司不仅实现技术上的突破,且在道德上可信赖。
在中国,公司治理这方面的潜力有限。中国公司治理的一个显著特点是党组织在公司中的作用。在国有企业中,党组织和法定的公司制度共同作为公司治理的组成部分。这些法定制度虽然在外观上与西方有共同之处,但它们的功能却大相径庭,也服务于截然不同的目的。我先前对国有企业的研究中,追踪了这些制度最初是如何被采用的,以及它们是如何被接受并继续运作的。研究发现,这些制度被采用的原始条件有历史偶然性。后来,这些制度,例如董事会,会在政治环境不断演变的情况下承压,也在这些压力下功能产生改变。当然,即便是在私营企业,党组织作用同样不可小觑。一旦私营企业影响力扩大、进入关键经济部门,它们的公司治理会立即承压。压力可能来自地方和中央的党组织,也可能来自监管机构。例如腾讯在微信被归类为“信息基础设施”时极为不安,因为这会带来监管的急剧升级。阿里巴巴和蚂蚁集团面临的监管升级也类似:当支付宝这样的私人平台影响开始超过传统银行,党的关注接踵而至。正因如此,在中国,虽然AI领域同样不乏理想主义的科学家和工程师,但利用公司治理来促进AI伦理的实践,很难有类似OpenAI和SSI这样的实质性动作。
在中国当下环境中,何为促进AI伦理的理想公司治理?我们对中国的公司治理应抱有有限的和合理的期待:如果公司治理能够防止政治压力对AI应用的扭曲,就表明它有效。在公司治理中,关于AI应用的决策往往需要满足不同的利益和价值目标。它们甚至会互相冲突。公司的管理者或控制者需要在这些相互冲突的目标中,去寻找合乎伦理的具体行动,作出正确决策。如果公司治理允许甚至帮助AI企业创始人做出正当决策——不是作恶,而是用技术帮助广泛地实现自由,包括建立市民社会的韧性——就是当下好的公司治理的体现。
我们很难离开具体语境提出一个中国AI公司的理想公司治理模式,但以下考量或许对中国的AI企业家有用,可称之为“中国公司治理中的AI伦理意识”(Awareness of AI Ethics in Chinese Cororagte Governance):
积极的治理文化(Proactive Governance Culture): 这意味着AI企业家需要关注AI的社会影响,并在技术决策中积极考虑社会影响。
加强国际合作(Strengthening International Collaboration): 鉴于迎合政府监控需求和满足全球标准的双重压力,拓展国际市场对于中国AI企业保持独立伦理判断的空间至关重要。加强与全球伙伴的合作,参与国际治理论坛,可以为管理这种微妙的平衡提供语境和框架。
透明的报告和利益相关者参与(Transparent Reporting and Stakeholder Engagement): 透明的沟通和强有力的利益相关者参与是治理的重要方面,可以培养信任和信誉。社会支持,包括让股东成为理性支持者(enlightened shareholder),是在中国实践AI伦理不可或缺的。
无论在美国还是中国,良好的公司治理从来不是凭空出现。研究文献显示,监管环境对好的公司治理至关重要。作为公司治理背景的法律制度、监管执法,可以配合公司治理来实现平衡各方利益,减少内耗。但是,近几个月来美国的AI公共政策变化不小。此前,作为AI领域技术实力最强的国家,美中两国相继出台了AI伦理准则和相关政策法规。然而,审视这些原则的落地情况,尤其是在AI技术逐渐成为两国地缘政治对抗关键领域的背景下,我们不难发现,为争夺技术领先优势,中美竞相放松对AI伦理的监管要求,这不仅给全球AI治理带来了严峻挑战,还让双方进入一种“探底竞争”(Race to the bottom)的险境:一方为获取竞争优势而降低伦理门槛,另一方必然跟进。监管放松,会给AI公司带来难以抵抗的利润压力,企业追求成本效率与快速商业化势必削弱对AI偏见、错误信息乃至恶意用途的防范措施,导致AI伦理的滑坡。
今天,我们当然有理由对AI伦理的前景忧虑,特别是中美AI伦理开始“探底竞争”之后。这使得中美人工智能公司通过公司治理来实践AI伦理的外部动力有所减弱。 然而,我们依然对AI伦理的未来抱有希望,因为越来越多的有识之士已经认识到AI伦理的真正价值:如同汽车的刹车系统一样,AI伦理是保障高速发展的技术造福人类的关键。