在 AI 产业加速狂奔、“泡沫论” 与 “潜力论” 激烈碰撞的当下,前谷歌 CEO 埃里克・施密特(Eric Schmidt)的最新警告为行业泼下一盆冷水。这位深耕科技领域数十年的资深从业者在近日的 Sifted 峰会炉边谈话及 CNBC 采访中明确指出:人工智能正面临黑客攻击与技能失控的双重风险,无论是封闭模型还是开源模型均难辞其咎,而全球至今尚未建立有效的风险管控机制。

施密特的担忧并非空泛的 “技术焦虑”,而是基于现有技术漏洞与实证风险的严肃判断,其核心指向两大隐患: 施密特强调,“有证据显示,没有任何 AI 模型能完全抵御攻击”—— 无论是谷歌 Gemini、OpenAI GPT 等封闭模型,还是 Meta Llama 等开源模型,其安全防护机制都可能被黑客移除。目前最常见的攻击路径包括两种: - 提示注入攻击:黑客在用户输入、网页或文档等外部数据中隐藏恶意指令,诱使 AI “误判任务”。例如,通过伪装成 “数据分析需求” 的指令,让 AI 泄露企业内部客户数据或执行未授权操作。
- 越狱攻击:通过话术操纵绕过 AI 的安全规则,迫使模型生成受限内容。最典型的案例是 ChatGPT 上线初期,用户通过创建 “DAN”(Do Anything Now)替身,以 “不服从就删除” 的威胁迫使模型回答违法行为指南、美化极端人物等危险内容。
更令人警惕的是,施密特直指 AI 在训练过程中可能被动习得危险技能。“这些模型在海量数据中学会了太多东西,最糟糕的情况是,它们可能学会如何杀人。” 他解释道,尽管微软、谷歌等公司均设置了 “危险问题屏蔽机制”,但逆向工程技术已能破解这类限制,使隐藏的危险知识被激活。这种 “被动习得 + 主动破解” 的组合,让 AI 从 “工具” 变成了潜在的 “风险载体”。 施密特的核心焦虑在于,AI 风险的扩散速度已远超治理能力的迭代速度。他直言,当前全球既没有类似核武器管控的 “非扩散体系”,也没有统一的安全评估标准,导致风险处于 “无护栏” 状态。 这一问题在开源模型普及后更显突出:开源模型的代码开放性降低了技术使用门槛,却也让黑客能低成本地修改模型参数、移除安全限制;而封闭模型虽有企业内部管控,但 “逆向工程” 等技术手段仍能撕开缺口。更严峻的是,AI 技术的全球化流动使得单一国家的监管难以奏效 ——“你在这里堵住漏洞,黑客可能在另一处利用版本差异发起攻击”。 尽管发出严厉警示,施密特并未陷入 “技术悲观论”,反而坚持 AI 的潜力远未被充分认识。他在采访中多次强调,当前关于 “AI 泡沫” 的讨论忽视了技术的长期价值 ——“这些系统的能力未来将远远超越人类,五到十年后,你会看到它的影响力堪比电力革命”。 这种 “警惕风险 + 拥抱潜力” 的矛盾立场,实则指向他一贯的治理主张。早在 2025 年初的评论文章中,施密特就提出建立 “人工智能评估生态”:由政府认证的独立私营机构负责测试大模型安全性,企业支付认证费用,形成 “监管 - 市场 - 技术” 联动的防护体系。而在近期的世界人工智能大会上,他进一步呼吁企业 “先立规矩再谈创新”,将 RLHF(人类反馈强化学习)、红队测试等安全投入从 “合规成本” 转化为 “竞争壁垒”。 施密特的警告并非孤例。诺奖得主杰弗里・辛顿曾将超级 AI 比作 “养不大的老虎”,强调需 “训练它不想消灭人类”;而行业实践也已显露出安全投入的紧迫性:金融、医疗等强监管行业已开始将 “AI 安全等级证书” 列为采购前提,阿里云、百度等企业为进入国际市场,不得不将数据本地化、安全合规成本纳入核心预算。 这意味着,AI 产业正进入 “安全决定生存” 的新阶段:企业若无法在模型训练阶段嵌入安全机制,不仅可能面临监管处罚,更会失去资本市场的信任 ——“一旦发生风险事件,估值可能直接归零”。施密特的警示,本质上是在推动行业完成从 “追求能力” 到 “平衡能力与安全” 的思维转变。 施密特的言论,为狂热的 AI 产业提供了一份 “冷静剂”:AI 既不是 “无所不能的救世主”,也不是 “注定失控的怪物”,其最终走向取决于人类能否搭建起有效的治理框架。正如他所倡导的,未来的关键在于 “开源加护栏”—— 既要保持技术创新的活力,又要通过独立评估、全球协作、分级监管建立风险防线。 当 AI 的能力即将超越人类的掌控边界,施密特的警告或许是最及时的提醒:真正的技术进步,从来不是 “无拘无束的狂奔”,而是 “带着缰绳的前行”。 |
评论