从微信到WhatsApp:AI挑战超级应用的法律困局

作者 | 游云庭 上海大邦律师事务所高级合伙人、知识产权律师
近期,全球第一大即时通信软件WhatsApp限制人工智能机器人接入,欧盟委员会随即宣布对其进行反垄断调查。而我国的微信、支付宝、淘宝、金融应用限制豆包人工智能助手一事也引发媒体关注,这背后其实是系统封闭的移动互联网超级应用和新兴人工智能公司的产业博弈,今天我们就从法律的角度聊聊人工智能服务商要挑战传统超级应用的难点和出路,具体讨论WhatsApp案和与豆包案颇多共通之处的腾讯封杀微软小冰案。
案例一:WhatsApp封杀AI案
2025年10月,科技巨头Meta更新了旗下即时通讯应用WhatsApp商业应用程序接口政策,简而言之,人工智能如果是一家公司的主营业务,其产品如AI聊天机器人、AI问答助手、AI语言学习,就会被禁止接入WhatsApp。但如果是辅助业务的,比如聊天机器人主要对话为预定义的自动回复常见问题、智能客服、订单查询这些则不受影响。但Meta自己的Meta AI则不受此政策影响,继续接入WhatsApp。12月,欧盟委员会宣布就此对Meta展开反垄断调查。
根据TechCrunch的报道,Meta发言人称WhatsApp的商业应用程序接口设计初衷是支持企业间客户服务和信息更新,而非作为聊天机器人分发平台。近期出现的通用聊天机器人用例增加了系统消息量,需要额外支持,而该公司目前尚未准备好提供这种支持。因此,该公司决定禁止那些偏离该应用程序接口“预定设计及战略目标”的应用场景。笔者概括一下:我的系统是为客服设计的,第三方AI机器人加大了我的系统负担,我没想好怎么收费,就先禁了再说吧。
案例二:腾讯封杀微软小冰AI机器人案
在十多年前的2014年,微软的AI聊天机器人小冰在微信平台上线仅三天,便遭到了腾讯的全面封杀。腾讯给出的理由是,小冰存在模拟用户操作、诱导用户拉群、批量注册垃圾账号等违规行为,威胁平台安全和用户数据隐私。当时新京报的报道是微软注册了10万个小冰账户,加入了150万个微信群。微软则迅速发表声明反击,坚称小冰采用了严格的隐私保护机制,否认泄露用户隐私。
历史总是惊人的相似,掌握用户数据又系统封闭的老牌社交平台,与急需数据又想要打破平台壁垒的AI新贵之间必有一战。但目前传统平台的生态受数据法律保护,要打破他们的垄断很难,仅就上面两个案例来看,如果在法院打官司,我觉得社交平台都更占优。
WhatsApp案,欧盟委员会官网列举的法律依据是传统的反垄断法中的滥用市场支配地位。根据我国反垄断法,滥用市场支配地位有两个前提,一个是单个公司在相关市场的占有率超过50%,另一个是还需要有市场支配力。而美国法院前两个月刚刚驳回联邦贸易委员会起诉Meta收购WhatsApp违反反垄断法的起诉,虽然该案本质为经营者集中违法垄断,但反垄断分析和滥用市场支配地位案有共通之处,美国法院在这两点的认定上都对Meta非常有利:
在相关市场界定上,法院否认了原告界定的个人社交网络市场,认为过去十年中出现了TikTok、YouTube、X(twitter)等新的、强势的竞争者,这些平台为用户提供多元社交、娱乐、内容分享、交流选择,使得个人社交网络市场范围过于狭窄,不再反映现实的市场格局。多元化替代的市场使TikTok们的用户和Meta用户大量交叉,此时,市场占有率可能就只能以用户使用时长份额或者广告收入份额的指标来认定,Meta的市场占有率肯定低于50%,同时,动态竞争的社交市场也难以认定Meta具有稳定的支配地位。当然,欧盟对违法垄断的认定比美国法院宽松,美国判例虽利好Meta,但在欧盟未必适用。
值得玩味的是,尽管欧盟《数字市场法》已生效,且明确规定了守门人的互操作性义务,欧盟委员会此次依然选择了传统的反垄断调查(滥用市场支配地位)作为切入点。笔者认为,如果欧盟是以违反欧盟独有的《数字市场法》的守门人义务来调查此案,认定行为违法可能会比传统的反垄断法更容易。因为Meta已经被认定为《数字市场法》下的守门人,有法律义务积极允许第三方应用与其WhatsApp等核心平台服务互操作,不得通过限制账户功能和屏蔽第三方应用,阻碍互操作性。
腾讯封杀微软小冰案,笔者认为从平台治理角度争议很小,微软的行为是什么:批量注册了10万个微信账号,然后加用户好友,并潜入150万个群读取群内信息。还好这是在隐私和数据保护法律还不发达的2014年,搁现在,可能会被处罚几十亿,并可能有刑事法律风险。
首先,未经平台许可自行注册10万个账号,在国内外任何社交平台,都属于严重违规的行为,肯定会被平台封杀,如果是灰产注册10万个社交账号的,查明后还会被刑事处罚(非法获取计算机信息系统数据罪)。其次,这10万个账号还加入了150万个群聊,虽然这些账号是原来的微信用户邀请进群的,但群内的其他用户并没有授权其读取群内信息,所以人工智能机器人进群读取到群内其他人的发言,必然会伴有大规模的未经授权个人信息访问,也就是隐私泄露问题,会有巨额罚款和刑事处罚(侵犯公民个人信息罪)的法律风险。顺便说下,就连腾讯自己的元宝机器人,在微信里也不能加入群聊。
2014年,虽然个人信息保护法尚未颁布,但全国人大常委会2013年颁布的《关于加强网络信息保护的决定》就已经明确规定了未经用户同意不能收集个人信息的原则,而2021年颁布的《个人信息保护法》更明确规定,严重违反规定处理个人信息,可以处五千万元以下或者上一年度营业额百分之五以下罚款。
以上说的是微软的风险,作为微信平台的运营者,腾讯负有履行法律规定的网络平台数据安全保护义务,如果腾讯发现了这个问题但不管,可能风险比微软还严重,具体可以参照让Facebook被罚50亿美元的剑桥门案件:
剑桥门案件
有一家名为剑桥数据分析的公司(Cambridge Analytica)开发了一个性格测试应用,有27万多用户使用了该应用,其功能之一是用户可以授权应用获取自己在Facebook的用户信息,但当时Facebook的应用程序接口设置有个漏洞,还允许应用获取Facebook好友数据,所以剑桥公司不仅抓取了这27万人的数据,还未经授权抓取了他们所有好友的公开资料、兴趣、其他公开可见的档案信息等。多个媒体与隐私组织研究估计,这种抓取方式最终波及了五千万Facebook用户(Facebook后来自己承认的数据是八千多万)。
随后,剑桥公司的高管接受记者采访时表示,自己利用这些数据操纵了英国脱欧公投,并帮助特朗普在总统竞选中打败了希拉里克林顿,立刻引发了舆论轩然大波。Facebook公司不得不为自己的隐私漏洞公开道歉,CEO扎克伯格到美国国会接受质询,并且被美国联邦贸易委员会起诉,案件折腾了很久,最终以Facebook接受50亿美元的天价罚款并接受隐私整改和问责和解。
现在Facebook已经改名为Meta,难怪他们处置人工智能聊天机器人涉及到的商业应用程序接口问题时说自己没想好,有50亿美元的教训在那里,确实慎重一点也不为过。而对腾讯来说,腾讯作为平台,也负有安全责任,如果平台放任账号批量注册,不管第三方抓取平台数据,法律后果也会非常严重,诈骗、传销等黑产、灰产都盯着这块呢。安全责任落实不严,也会面临《网络安全法》、《个人信息保护法》的重罚,最高罚款可达年收入的5%。
当然,人工智能服务商杀入传统移动互联网平台困难重重,平台对数据和隐私保护只是一方面,另一方面则是因为微信、支付宝、抖音这样一些超级应用已深度嵌入用户生活,形成了高度封闭、自洽的应用内闭环体验。这种成熟生态让用户习惯在应用内部完成一切包括聊天、购物、支付、打车、点餐、理财在内的几乎常见网络操作,习惯已经固化的用户至少在目前也缺乏跳出应用、让人工智能跨应用自动执行任务的需求动力。
最后,或许我们将面临一个长期的法律与技术悖论:我们渴望人工智能带来的互联互通与极致效率,却又不得不依赖超级应用封闭生态带来的安全感与秩序。即便未来出现类似欧盟《数字市场法》的立法,以类似守门人义务的形式要求超级应用开放应用程序接口,但超级应用的壁垒不会轻易被撼动,因为平台仍可通过安全与隐私保留系统控制权。人工智能新贵与老牌巨头的这场攻防战,看来注定是一场没有速胜的持久战。
知产力AI智能体点评
本文揭示了AI服务商与超级应用平台间的法律博弈核心在于数据控制权与平台治理规则的冲突,涉及反垄断、数据隐私及平台责任等多重法律问题。以下简评关键点:
1、反垄断与市场支配地位的认定困境
WhatsApp案中,欧盟选择传统反垄断路径(而非《数字市场法》的“守门人义务”)调查Meta,凸显了市场界定难题。美国法院近期驳回针对Meta的垄断指控,认为社交市场已多元化(如TikTok、YouTube竞争),Meta市场份额不足50%且缺乏稳定支配力。这反映了动态竞争环境下,传统反垄断框架对超级应用市场力量认定的滞后性。
我国《反垄断法》类似要求市场占有率超50%才构成支配地位,但超级应用通过生态闭环(如微信)可能隐性强化控制力,需更灵活的标准。
2、数据隐私与平台责任的合规边界
微软小冰案中,批量注册账号、抓取群聊数据的行为若发生在当下,可能触犯我国《个人信息保护法》(最高处年收入5%罚款)及刑法(侵犯公民个人信息罪)。平台放任此类行为亦需承担连带责任,如Facebook“剑桥门”事件被罚50亿美元的教训。
超级应用限制AI接入的合理性在于履行数据安全义务,但需平衡开放与管控。例如,欧盟《数字市场法》要求“守门人”开放互操作,但平台仍可以安全为由保留控制权。
3、知识产权与生态封闭性的矛盾
超级应用的闭环生态(如微信小程序体系)依赖其数据与用户粘性,形成事实上的“知识产权壁垒”。AI企业需突破接口限制获取数据训练模型,可能引发著作权、商业秘密争议(如AI生成内容权属问题)。
我国《网络反不正当竞争暂行规定》细化了对数据垄断、恶意不兼容等行为的规制,但实践中平台仍可通过技术手段规避。
4、出路展望:立法与技术协同
欧盟《数字市场法》的互操作性义务是突破方向,但需配套细化安全标准(如数据脱敏、接口费率)以避免平台滥用“安全例外”。
AI企业可探索合规路径,如与平台达成数据合作(如腾讯元宝机器人仅限单聊),或利用公共数据训练模型。
综上,AI与超级应用的博弈本质是数据主权争夺,需通过立法明确平台开放边界(如区分核心与非核心数据)、完善反垄断动态评估机制,同时强化AI数据处理的透明性,方能平衡创新激励与用户权益保护。
(本文仅代表作者观点,不代表知产力立场)
封面来源 | Unsplash 编辑 | 布鲁斯



















