他们解雇了我!百托启动首轮“军事AI学科”

文字|华商套路Peter Yang 11月12日下午,有关字节跳动员工的简短消息引起科技界轰动。字节跳动大型建模团队(Seed)研究员任某某因泄露机密信息被公司开除。据该报、《证券时报》等媒体报道,涉事人员于11月11日完成辞职,距接到通知仅一天。任某某是机器人系统集成专家。作为拥有8.6万粉丝的大V,他在知乎透露,自己曾深度参与过字节机器人GR-3运营模式的开发。此案的重要性远远超出了正常的个人惩罚。这是国内大公司首次因数据泄露而解雇人工智能研发关键员工,也象征着字节跳动主动纠正“纪律”。▲来源:知乎曾在山东省机器人公司珞石科技担任机电工程师,后加入小米担任高级研发工程师。 2023年,他再次跳槽,加入字节跳动Seed团队,主要负责机器人系统集成相关研究。在 Byte 期间,他很快发现了 GR-3 项目,这是一个视觉-语言-行动模型。新一代(VLA)今年7月公布了该项目的技术原理。然而,11月17日,大新闻报道称,据接近Byte的人士透露,任正非的泄密行为是多次接受咨询公司的付费采访,并泄露机密商业信息。这个问题与知乎的技术分享无关。事实上,这种对信息安全的重视已经在Byte身上得到了体现。今年9月,字节跳动公司纪律与职业道德委员会公布了第二季度员工违规行为的处理情况。我们有100名员工因违反公司红线而被解雇。报告特别提到,10名员工因非法参加有偿外部采访、泄露公司机密信息而受到处罚。字节特别敦促员工对外部咨询公司以“采访”、“专家调查”或“行业调查”等名义发起的有偿邀请更加谨慎,防止机密信息泄露。任某某的处理结果表明,字节跳动在人工智能领域的信息安全机制日趋体系化,对单点泄密的容忍度不断降低。百图态度明确,不会容忍任何违反红线的行为。类似的员工因泄露机密信息而被解雇的事件在其他大型工厂也曾发生过。今年9月,小米中国市场部总经理王腾被解雇了。小米集团职业道德委员会通报称,“(王腾)泄露公司机密信息,存在包括利益冲突在内的严重违规违纪行为,虽然泄露的具体内容尚未披露,但就是他的”,足以体现小米对于信息安全的重视。同月,MiHoYo 还宣布尚未公布《原神》和《崩坏:星轨》的促销计划。公开该内容的泄密者采取了刑事强制措施,要求对多名参与“拆包”的当事人发出禁令,并要求立即停止侵权活动。大型厂商历来都非常重视内部信息的安全。据该报报道,阿里巴巴2016年发布的《员工纪律处分制度》明确规定“非公开信息”属于保密。如果员工披露信息泄露后,无论是否产生影响,该员工都将被解雇。严禁泄露信息,包括公司内部网的信息。 2021年8月,第一财经援引彭博社报道,阿里巴巴宣布将解雇10名泄露内网文章的员工。不过,阿里巴巴并未对此事做出回应。重大违法行为可能会导致司法干预。 2025年1月16日,腾讯胶公司发布《反舞弊公告》,并公布了S3-CSIG人力资源中心黄先生等21人姓名。因向境外泄露公司机密信息,他因涉嫌犯罪被移送公安局。腾讯已将他列入黑名单,永远不会雇用他。目前各大厂商很少公开其AI专用保密体系,但在2025年的技术转型期,关键技术和模型细节将成为竞争力的核心,不言而喻,安全很重要。字节跳动因数据泄露解雇了首位高级AI研发员工,但这也意味着国内一家大厂正式迈出了整顿“军用AI纪律”的第一步。 【02 硅谷的大公司现在怎么样? 】 在全球最大的AI竞赛所在地硅谷,各大科技公司早已将信息安全视为防御核心,对信息泄露非常敏感,并建立了相对成熟、系统的AI保密和应对机制。硅谷公司有一个行业共识,即在模型架构、训练数据、算法细节、推理框架、硬件优化方案、部署策略等核心技术关键环节,对信息泄露零容忍。如果发现员工泄露信息离子,最少你会被解雇,最多你会毫不犹豫地被起诉。今年备受瞩目的诉讼之一是马斯克旗下的 xAI 对前中央工程师李学晨提起的诉讼。李学辰是中国人。在离开 xAI 并兑现约 700 万美元的股票后,他立即加入了 OpenAI。今年8月,xAI向加州联邦法院提起诉讼,指控深度参与Grok聊天机器人训练和开发的工程师在离开公司之前,秘密窃取了公司的最高商业机密,从模型源代码和训练数据到几乎涵盖大型模型灵魂的未来几年的技术路线图。尽管案件仍处于初步诉讼阶段,但法院已下达初步禁令,禁止李学晨在OpenAI从事任何与生成式AI技术相关的业务或互动。该事件被媒体称为史上“最血腥”的企业战今年的事件。他们打电话给我。一位顶级工程师跳槽到了直接竞争对手,被指控在退休前窃取了大型模型的秘密,并在退休前顺手清算了大量库存。它几乎同时满足了硅谷最敏感、最戏剧化的元素。今年10月,大数据分析公司Palantir也爆发了重大“AI企业大战事件”。 。该公司已在纽约联邦法院起诉两名前高级人工智能工程师,指控他们在离开公司之前获得未经授权的访问并摘走 Palantir 的“皇冠上的明珠”,包括涉及政府客户和大型企业的核心算法源代码、模型架构和数据资产。更戏剧性的是,两人创立了一家名为 Percepta AI 的新公司,Palantir 认为该公司是“旗舰产品”,几乎是直接对冲。 Palantir的要求极其严格,禁止初创公司继续使用相关技术d 技术并要求高额赔偿。目前备受关注的 NVIDIA 也因泄密事件而受到指责。 2021年,一名前法雷奥工程师跳槽到NVIDIA,随后在一次视频会议中意外泄露了法雷奥高级驾驶辅助和智能停车系统的源代码和相关文档。法雷奥随后提起诉讼,指控英伟达利用泄露的技术加速自身研发,并寻求巨额赔偿。报告称,工程师复制了大约 27,000 个文件和 6 GB 代码,涵盖传感器融合、停车任务和紧急制动等核心模块。此案目前正在加利福尼亚州联邦法院审理中。法院认为有足够的间接证据支持法雷奥的指控。不过,英伟达否认有意使用对方商业机密,并表示在发现该行为后进行了内部调查和清理。苏。无论是李学臣事件、Palantir事件还是英伟达事件,其本质都是生成式AI军备竞赛中的一场技术之战。如果算法、数据和基础人力资源三大支柱同时使用,就等于掏空了任何一家公司的根基,这当然是不能容忍的。有些公司直接解雇发表不当言论的员工。 2022年,Google大型模型LaMDA、ブreイク・ルモイン氏が、社内タブーに违反したとして责任を问われた。 「AIはすでに人间と同じように情感や魂を持っている」という彼の発言は、场景で広范な议论を引き起こした。 AIの潜在的な「认识」能力に対する同氏の敏感さが未来のrisukuを明らかにしていると信じる者もいれば、彼の结论が主観的であると批判する者もいた。但谷歌并不太担心,很快就以“违反保密协议”为由解雇了他。谷歌发言人在给媒体的一封电子邮件中证实了解雇事件,并表示:“我们祝莱莫恩先生一切顺利。” 【03 秘密是生存的最低限度】有人可能认为硅谷对于员工信息泄露的反应过于严厉。不过,在看来许多企业高管认为,目前对泄露机密信息的处罚仍然过于宽松。大规模的模型竞赛每次重大迭代都需要巨额投资。基础技术或培训数据的泄露不仅会给企业带来最终损失,还会破坏企业的技术护城河,造成灾难性后果。例如,技术媒体和研究机构估计 GPT-4 的培训成本约为 7800 万美元。根据多项分析报告,谷歌的 Gemini Ultra 每次训练费用高达 1.91 亿美元。 rXiv 的一篇文章“训练前沿人工智能模型的成本不断上升”进一步指出,训练前沿模型的成本几乎呈指数级增长。根据其趋势预测,到 2027 年,一次训练一个顶级模型的成本可能会超过 10 亿美元。有了这样的背景,就不难理解马斯克为何对李学晨的泄密事件如此愤怒了。 Grok 是 xAI 的王牌rd和马斯克押注未来的主要资产。今年7月发布的Grok 4被他称为“全球最聪明的AI”,并声称其整体能力超越了OpenAI o3、Gemini 2.5 Pro、Claude 4等主流机型。此外,值得注意的是,xAI 在投诉中特别指出,如果与 Grok 相关的泄露技术被竞争对手(例如 OpenAI)采用,该方可能会获得“压倒性优势”。换句话说,这不是普通的数据泄露,可能会让竞争对手直接跳过多年的研发周期,有可能改写整个行业结构,引发xAI灾难。因此,保密是一个安全问题,也是人工智能军备竞赛中的“核心军事纪律”。另一方面,AI技术本身又极其微妙。所有核心资产,如模型架构、训练数据、优化算法等都是“纯数字化”的,并且可以无需复制和传输。无需携带任何硬件。一旦被过滤,复制成本几乎为零,造成的竞争损害几乎是不可逆转的。李学辰、Palantir 和 Nvidia-Valeo 案件最终告上法庭,正是因为涉案公司认为这些违规行为可能造成的损失难以忍受,并动摇了公司的核心护城河。因此,只能通过法律手段来阻挡影响,尽可能减少损失。另一方面,由于人力资源流动性加大,人才流失的风险加大。上述三起硅谷诉讼清楚地表明,几乎所有违规行为都是由于人事变动造成的。工程师的离职、跳槽,甚至跨境合作都可能造成技术泄漏的缺口。这给企业带来了前所未有的“退休过程中的风险管控”水平。随着国内大型建模大赛全面加速,AI竞赛进入全面白热化ng,中国科技公司可能会效仿硅谷的做法。保密不是制度选择,而是生存的最后一道防线。欢迎关注【中国经营陶略】,结识名人,阅读陶略传奇。未经授权禁止转载。禁止在互联网上私人复制某些照片。如有侵犯版权,请联系我们删除。
特别提示:以上内容(包括图片和视频,如有)均为自导自演。由“网易号”媒体平台用户上传发布。本平台仅提供信息存储服务。
注:以上内容(含图片、视频、ifany)由仅提供信息存储服务的社交媒体平台网易号用户上传发布。

此条目发表在吃瓜热门分类目录。将固定链接加入收藏夹。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注