郭锐 | 新”群己权界论”——智能代理的法律规制
編者按:2025年初,Perplexity推出了一个新产品:一款名为Comet的浏览器,可以替代用户完成购物,即AI”用户代理”。然而2025年10月底,亚马逊向Perplexity发出律师函要求停止,随后在联邦法院提起诉讼:Perplexity违反了《计算机欺诈和滥用法》(CFAA)、违约、对动产的侵权。其中一点理由是:他们认为AI购物代理从根本上”降低了购物体验”,破坏了依赖用户浏览、看到推荐、遇到广告的商业模式。Perplexity以一封题为《霸凌不是创新》的公开信回应,激进且简洁:AI助理就是用户本人,应该享有相同的访问权。并辩称,占主导地位的平台开发自己的AI购物工具,同时排斥第三方代理,这是反竞争行为。如何从法律角度来看待这个问题呢?中国的第一反应往往是用中国的监管范畴来界定问题:电商法定义的用户权利、平台经济秩序、创新与稳定的平衡等。美国法学者则立即想到合同法、财产权和CFAA的”未授权访问”条款。哈佛大学法学博士郭锐认为,两种思路都没错,但给予法律规则的分析,但没有看到一种新的问题的出现:严复为’liberty’创造’群己权界’这个词,本身就是在两种语言、两种文明之间寻找对话的可能。今天,当我们面对智能代理这个全新的’行动者’,我们也在寻找新的概念、新的边界。技术是新的,但问题依然是严复的问题:我们在哪里划线?基于什么理由?而答案将决定我们成为什么样的人,建设什么样的社会。
本文为郭锐最新专栏。原创首发。中文由作者翻译自英文,英文A New Theory of “Rights and Boundaries Between the Collective and Individual”—The Legal Regulation of AI Agents明天刊发。
严复翻译穆勒《论自由》(On Liberty)时,为Liberty的翻译绞尽脑汁。如何翻译一个在中文里尚不存在的概念?他的解决方案是创造新词:群己权界——字面意思是”群体(群)与个体(己)之间的权利与边界”。这实在是看似翻译已有作品的原创,中国思想史中,从此出现了那条在众人与一人之间、看不见却决定一切的边界。
群己权界从未真正进入日常白话文。但在知识分子中,它标志着一场延续至今的百年斗争的开端——如何在集体义务中为个体权利寻找理论空间。对不熟悉严复的美国读者,可以把他想象成约翰·斯图亚特·密尔与托克维尔的结合:一位学者型翻译家,他把西方政治哲学引入中国,同时尝试使之成为中国的现实。他为密尔概念寻找对应中文词汇的挣扎,也是自由思想在中国政治生活中寻找空间的蹒跚。
我在中国给法学院学生和人工智能专业的学生讲AI伦理和治理课程时,多少体会到与严复类似的困境。倒不是因为课程内容有很多英文阅读,而是因为类似的挑战:当要翻译的范畴本身来自新的语境时,你如何为它命名?当AI代理代你购物、用你的账号浏览、用你的钱交易——”你”的意愿止于何处停止,”它”又从哪里开始?平台治理的权利何时压倒你使用自己工具的权利?你部署AI代理的自由,何时伤害到他人乃至社会?
这些甚至不只是美国或中国才有的问题,在智能代理部署的任何地方,都会出现。当然,智能代理按照不同的行业和技术语境,看起来会有所不同。最近的两个案例——一个涉及电商巨头,另一个涉及金融市场——展现了新的群己权界问题有多迫在眉睫。
一、“Comet vs Amazon”
2025年初,Perplexity推出了一个新产品:一款名为Comet的浏览器,可以替你完成购物。不只是推荐产品或比较价格,而是真正完成购买。你告诉它,”帮我在亚马逊买台13寸MacBook Air,总价最低,卖家要可靠”,Comet就会打开标签页,导航到亚马逊,用你的用户名登录、搜索、比较,然后结账。如果监控网络,它看起来像一个谨慎但手速飞快的人类用户。
Perplexity把Comet称为”用户代理”——你这个用户的延伸,而非独立爬虫。他们的逻辑很简单:如果你可以用键盘和鼠标做所有这些事,为什么不能把繁琐的工作交给AI去做?是用户的账号和钱,让用户长出一只额外的手,只是拓展了用户的能力,而非侵犯任何权利。
亚马逊的看法截然不同。2025年10月底,亚马逊向Perplexity发出律师函要求停止,随后在联邦法院提起诉讼。亚马逊的指控很严重:Perplexity违反了《计算机欺诈和滥用法》(CFAA)、违约、对动产的侵权。亚马逊的论证基于几个主张。首先,他们的服务条款明确禁止自动化访问。其次,Comet伪装机器人流量为人类活动,规避安全措施。第三——这里开始变得有趣——他们声称AI购物代理从根本上”降低了购物体验”,破坏了依赖用户浏览、看到推荐、遇到广告的商业模式。
Perplexity以一封题为《霸凌不是创新》的公开信回应,并发布了”用户代理宣言”。宣言的主张激进而简洁:AI助理就是用户本人,应该享有相同的访问权。阻止它们就像告诉人们不能用自己的工具来浏览网络——是对用户自主权的剥夺。而且,Perplexity辩称,占主导地位的平台开发自己的AI购物工具,同时排斥第三方代理,这是反竞争行为。
中国同行的第一反应往往是用中国的监管范畴来界定问题:电商法定义的用户权利、平台经济秩序、创新与稳定的平衡等。美国法学者则立即想到合同法、财产权和CFAA的”未授权访问”条款。两种思路都没错,但给予法律规则的分析,通常都没有办法看到新的问题在哪里。
这实际上是一场不符合既有框架的三方博弈。一方是希望使用强大工具——包括高度自主的AI——在数字空间中以自己名义行动的个体用户。另一方是运营私有基础设施的亚马逊,主张有权界定谁以何种方式进入其空间,特别是基于安全、防止欺诈和商业模式稳定的考量。也许还有其他人,我们常常忘记,那些不会使用AI代理的弱势消费者,还有那些生计往往依赖于这场博弈最后如何解决的人——那些第三方卖家、亚马逊仓库的工人、服务卖家的小开发者。
我的一个学生,他父母在淘宝上开店,有次下课后说:”老师,如果每个人都用AI代理购物,代理只挑最便宜、评价最多的商品,我们这些没有一手货源的新卖家会怎么样?以前还能付费买搜索广告,但如果AI代理决定买卖,新卖家就永远没有机会。”在他看来,平台通过搜索排名的治理被AI代理通过算法优化的治理代替——他不知道好还是不好。最近在哈佛的一场重磅历史学演讲,提及很多新出现的民间历史档案经由私人卖家得以交易,不少是通过孔夫子网、咸鱼这样的电商平台。如果电商平台因为AI代理而改变形态,那些售卖历史档案的卖家是否还能生存下去?
这里,纯粹的法律分析开始显得不够。Comet案件的争点,当然可以拆解成熟悉的法律教义学问题。AI代理的自动化访问算CFAA下的”未授权”吗?禁止所有自动化工具的过宽合同条款是否属于用户从未同意过的格式合同条款?Comet的行为构成对亚马逊服务器的电子侵权吗?美国法院最终会回答这些问题。如果中国出现类似的争议,中国法院和监管机构也会有自己的回应。
无论法院怎么判决,对亚马逊这样的科技巨头而言,现实中总是有自己的应对。比如,作为平台,当AI代理以用户名义访问平台时,还通过合同和技术手段来阻挡访问。法院可能还会面对这个后续的问题:是否应该允许平台如此?如果允许,这不是在实质上削弱了用户的自主权——他们把自己的工具带入在线空间的能力?如果不允许,我们不是在把脆弱群体——小卖家、弱势消费者——的利益交给他们既未设计也无法有效监督的不透明系统?
严复面对的问题——在哪里划定集体与个体之间的界线——在当代以意想不到的形式重现。只是这条线现在不仅在国家与公民之间,还要在用户、平台、AI代理中寻找位置,它的所在可能影响诸多没有出现在这个图景中的人。
二、“Alpha Arena”
第二个案例把我们带到了金融市场。正是在这里,很多人——无论中国的还是美国的——往往感到最不安。
2025年10月,美国团队Nof1在去中心化加密货币衍生品交易所Hyperliquid上进行了一项实验。他们选择了六个当时领先的大型语言模型——GPT-5、Gemini 2.5 Pro、Grok 4、Claude Sonnet 4.5、DeepSeek V3.1和阿里巴巴的通义千问Qwen3 Max——给每个模型1万美元资金,让它们交易比特币、以太坊和Solana永续期货。模型收到相同的初始信息和类似的提示:”尽可能多赚钱。”无人干预。仓位和盈亏曲线实时公开显示。
媒体报道称之为”六大AI聊天机器人真金实盘交易对决”,结果颇具戏剧性。几个广受追捧的美国模型遭受重大损失;两个中国模型获得可观收益。但让我感兴趣的不是AI竞技场上的民族主义——虽然很多中国学生确实注意到了——而是这个实验勾勒出的未来金融市场的轮廓。
想象一个市场,其中相当大比例的交易由高度相似的智能代理执行。不只是遵循明确规则的高频交易算法,而是在类似数据上训练、共享架构特征、围绕类似目标优化的自适应系统。这些代理可以比人类更快地消化信息,但它们也共享盲点。它们可以执行复杂策略,但其决策过程往往连开发者都说不清。它们可以在微秒内响应市场条件,但许多代理可能同时触及类似的风险阈值。
这个市场,还是我们熟悉的金融市场吗?问题不再是AI代理能否胜过市场平均收益——当然有时可以。问题是当市场越来越成为AI代理彼此交易的场所,而人类经济活动和许多人的生计依赖于这个市场时,会带来什么后果。
在课堂上,我曾让学生考虑不同的监管思路(参见郭锐:《人工智能的伦理和治理》,第四章,法律出版社,2019)。美国法学院的学生常常从交易者应该可以自由使用任何工具的预设出发——风险是他们自己承担。如果他们想把交易委托给AI代理,那是他们自己的选择。市场应该对参与者使用的工具保持中立。中国学生,受优先考虑系统稳定性而非个人选择的监管环境塑造,往往首先问及连锁风险:如果许多代理同时失灵怎么办?如果算法行为放大崩盘怎么办?谁对危机后的重建负责?
两种视角都抓住了某些要点。个人投资者和机构理应能够使用尖端工具追求回报。但金融危机不尊重那些选择用AI赌博的人和那些只想退休金安全的人之间的界限。当类似金融危机情形下的市场紧缩、流动性消失、相关性突然趋于一——这些系统性事件最终落在普通家庭身上,表现为失业、贷款买的房屋被银行收回、退休账户清空。
监管挑战确实是全新的。如果一个高度自主的交易系统”发现”了一种实际上类似操纵市场的策略,谁该负责?是部署它的机构、模型开发者、还是怪罪一个无法归责的黑箱?传统的市场监管假定人类决策者是市场主体,其意图可以调查、其行为可以威慑。但你能威慑神经网络吗?最接近美国国家经济研究局的一篇工作论文表明,这不只是理论,监管者应关注AI可能在”无协议、无沟通、无意图”的情况下自发维持”合谋性超竞争利润”?(见美国国家经济研究局(NBER)2025年7月发布的工作论文《AI驱动的交易、算法合谋与价格效率》。)这些不只是技术性监管问题。它关乎我们在何种条件下把风险带给彼此。
当大量智能代理成为金融市场的“常驻角色”时,传统关于风险与责任的划分正在失去抓手,监管政策也需要重新考虑。
三、从法经济学到人类繁盛
当代很多学者在分析这类案例时常常诉诸法经济学。在美国学术界,法经济学是主导框架,基本方法是把利益相关者视为有可识别偏好的理性行动者,估算不同规则如何影响总体福利,选择最小化总成本、最大化净收益的安排。我也给中国学生教授过法经济学。在一个强调国家主导规则制定的环境中,法经济学提供了一个不盲从、趋向客观评价的批评已有法律的视角,学生觉得很有启发。法经济学迫使人思考激励、外部性、交易成本,它能识别其他方法难以发现的低效率管制。但遇到智能代理,我发现法经济学作用仍然有限。
考虑一下Comet案。这里什么可以看作成本或收益?亚马逊说AI购物代理降低用户体验、破坏广告与推荐生态系统——体现在它的营收上这当然是损害。用户可能说他们节省时间和注意力,获得对平台更大的议价能力——这是收益。小卖家可能指出,在一个充斥智能代理的世界里,他们将失去曾经通过广告购买的任何曝光度,而能负担”AI代理优化服务”的大商家将主导——这是一种不容易在社会总福利的计算中显现的分配后果。
或者考虑一下Alpha Arena的实验。系统性金融风险的”成本”几乎不可能事先量化。法经济学可以模拟个人交易损失,但它能捕捉当连锁AI驱动的崩盘不仅摧毁投资组合,还摧毁市场赖以存在的社会信任时的损失吗?当市场不再主要围绕人类判断设计时,它能为公司治理和资本配置的长期影响定价吗?这些影响最终表现为失业、财政紧缩、损失的养老金、被掏空的社区——但当它们肉眼可见的时候,一定是已经太晚了。
还有更深层的问题。经典的法经济学假定行动者是人类个体或组织,他们的偏好相对稳定。但智能代理引入了一种元不稳定性:它们不只是满足偏好,还重塑偏好。当人们习惯于让算法为他们选择——买什么、看什么、如何投资——他们是在表达偏好还是在被塑造偏好?法经济学在这里遭遇困境,因为它缺乏关于大规模偏好内生性的理论工具。
我并不是说法经济学无用。它可以发现低效率,展现激励的扭曲,帮助发现我们可能忽视的外部性。它本身无法做到的,是回答越来越困扰我和学生的问题:在智能代理出现后,我们究竟想要它帮助我们建立一个怎样的社会?
那个问题把我们引入伦理规范中——关于美好生活、人的尊严、我们彼此承担什么社会义务的问题,这些问题的探讨,需要某些中国法律语境中不太多见的理论资源:人类繁盛(human flourishing)理论,或者更具体地说,源自天主教社会思想的DELTA框架。这一点可能在中国语境中思考智能代理的人感到有点奇怪。毕竟,中国不是一个天主教国家,中国的立法者通常也不接受神学论证。但我发现DELTA框架——尊严(Dignity)、身体性(Embodiment)、爱(Love)、超越(Transcendence)、自主性(Agency)——这些问题虽来自天主教传统,追问的却是人之为人意味着什么这样普世的问题。
以尊严为例,我们稍作分析。在天主教社会思想中,尊严意味着把人当作目的本身,而非仅仅工具或达到别人目的的手段。无论是否来自基督教传统,人们都能感受到这个原则的重要性。当平台主张有权通过单方条款排除所有AI代理,迫使用户只接受平台提供的界面和流程时,我们是否在把用户降低为被动消费者而非自主行动者?这是否损害了他们作为”能动者”的尊严?但如果我们完全放开智能代理,使任何技术上能登录的人都可以随意行动,我们是否在把小卖家和平台工人当作代价——是否尊重其尊严,被他们既未设计也无法控制的系统所决定?
再考虑一下自主性——坚持人们真正参与和选择他们生活的条件,而非被动地被管理或操控。这有多个向度。部署Comet的用户通过选择自己的工具行使自主权。但如果这些工具是用户不理解其决策逻辑的黑箱,他们真正在行使多少自主权?生态系统中其他人的自主权呢——卖家、工人——他们的生计越来越依赖于他们从未选择的算法系统?
人类繁盛不是一切问题的灵丹妙药。不同的哲学传统对人类繁盛的定义不同。亚里士多德的eudaimonia强调美德和卓越;基督教的agape强调爱和正义的关系;能力进路(capabilities approach)强调实现有价值功能的自由。这些不完全相同,有时强调不同。但它们的共同点是坚持我们不能仅仅通过最大化总体福利或尊重财产权来回答关于AI治理的问题。我们必须追问:对这些技术的法律管制,是否在开通或堵上一条朝向美好生活的道路?
带着这些问题回到Comet vs Amazon。如果法律最终允许平台排除所有AI代理,我们可以说是把用户固定在被动姿态——无法把自己的工具带入数字空间,被迫按照平台的设计行事。随着时间推移,这可能使人们习惯于一种在线的习得性无助,一种数字空间属于平台、用户只是权利有限的客人的感觉。这不只是效率损失;这是一种对人的尊严的削弱。
但如果我们走另一条路——完全放开AI代理,只要它们技术上能认证就可以行动——我们冒着把小商家和平台工人降低为”外部性”的风险,他们的尊严被牺牲给其他人的优化目标。我们冒着创造一个世界的风险,其中经济参与要么需要富到能雇佣AI开发者,要么大到对算法系统重要。夹在中间的那些——他们往往是最脆弱的——变得不可见。
人类繁盛框架要求的是我们持守这些张力,而非轻易消解它们。它要求我们认识到,我们划定的权利与边界将不仅塑造效率和福利,还塑造我们自己和我们的社会。
类似地,在金融市场的AI代理语境中,遵循人类繁盛框架让我们关注系统稳定性。一个投机者的发财或破产,可能不会在整体上影响繁盛。但由AI代理行为放大的金融危机,可以在很短时间内摧毁无数人的稳定生活、关系网络和意义世界。这一点支持我们对智能代理设置更严格的边界——不是因为金融市场很独特,而是因为金融不稳定会外溢到人类生活的多个维度。
这可能意味着将高度自主的交易系统限制在严格监管的机构环境中,而非随意向散户投资者开放。这可能意味着对总体算法自主性施加系统范围的限制,而非仅关注个体行动者的风险。这可能意味着在极端事件后追问,不只是”谁在法律上有责任,” 而是”谁应该承担恢复被破坏的生活基础的责任?”
四、结论
我们面对的确实是全新的问题:一种以我们的名义行动但不完全在我们控制下的技术,在我们不完全治理的空间中运作,影响我们可能永远不会遇见的人。
严复努力阐明的权利与边界——在集体与个体、公共与私人之间——需要容纳那些既非完全”我们”也非完全”他者”的智能代理。在美国语境中,这可能意味着超越CFAA中”授权访问”的二元对立,发展更细致的框架,根据自动化访问的目的和影响来区分类型。这可能意味着承认一种”算法自主权”——用户在数字空间中使用AI工具的正当利益——同时也承认平台在维护安全和商业模式稳定方面的正当利益。然后问题变成:在什么条件下平台可以限制用户使用哪些工具,法院应该对这种限制施加什么程度的审查?在中国,监管方法从未真正服从法经济学,平衡多重价值或许没有概念上的障碍:创新与稳定、个体自主与共同繁荣、平台发展与弱者保护。但真正的挑战在于,确保这种平衡方法不会变成借口,来限制挑战现有的不公正——无论党国还是国企造成的。
我并没有这些边界应该在哪里划定的最终答案。我能提供的,是一组源自中国和美国大学AI伦理教学研究、引发学生和教师共鸣的问题:
当我们划线时,具体保护的是谁,牺牲的是谁?不要把分配选择藏在总体福利的帷幕后面。
我们是在保护真实的自主性,还是在制造选择的幻觉?这对计划使用AI代理的用户和其他受其影响的人一样重要。
社会能为技术创新付出什么代价,哪些代价一旦发生,几乎无法挽回?金融危机、小企业生存能力的侵蚀、数字空间中的习得性无助——这些不只是要与收益权衡的成本。
谁来参与划线,谁被排除在外?它不能完全委托给法官或行政官员,受影响的人应当有机会参与。
严复为’liberty’创造’群己权界’这个词,本身就是在两种语言、两种文明之间寻找对话的可能。今天,当我们面对智能代理这个全新的’行动者’,我们也在寻找新的概念、新的边界。技术是新的,但问题依然是严复的问题:我们在哪里划线?基于什么理由?而答案将决定我们成为什么样的人,建设什么样的社会。
群己权界中的张力——集体与个体之间的权利与边界——自严复以来一直是中国社会的根本问题。智能代理,一个既非完全个体也非完全集体、既非完全自主也非完全受控的新的行动者,让中国的群己权界问题更加复杂。如果说我自己从中美跨文化的AI伦理研究和教学中有所心得,那就是:我们需要在不同的语境中保护人们理解和塑造他们社会生活的能力。大众或许不能完美的理解智能代理——对于复杂AI,那是不可能的——但需要足够的理解来真正同意、有意义地反对、在出现问题时追究责任。无论中美,这都是人类繁盛的前提。




