一、惊雷乍响:自由软件先驱的尖锐控诉当具身智能企业在春晚赞助战场上砸下亿元筹码,当生成式 AI 成为办公、创作的 “标配工具”,自由软件之父理查德・斯托曼(RMS)的一篇《Reasons not to use ChatGPT》,如同一 ...
一、惊雷乍响:自由软件先驱的尖锐控诉当具身智能企业在春晚赞助战场上砸下亿元筹码,当生成式 AI 成为办公、创作的 “标配工具”,自由软件之父理查德・斯托曼(RMS)的一篇《Reasons not to use ChatGPT》,如同一记惊雷划破行业狂欢。这位以 “计算自由” 为信仰的技术先驱,用最直白的措辞抛出两大核心批判:ChatGPT 不是 “智能”,而是 “胡说八道生成器”;它不是赋能工具,而是剥夺用户计算自由的 “私有牢笼”。 斯托曼的批判直指本质:他将 “智能” 定义为 “认知、理解并掌握知识的能力”,而 ChatGPT 这类大语言模型,本质是基于海量数据的文字拼凑游戏 —— 它无法理解输出内容的真实含义,更不会进行有意识的思考,其产出的 “一本正经的错误信息”,正在模糊真实与虚构的边界。更令他警惕的是私有软件的霸权:ChatGPT 运行于云端黑箱,用户既无法获取源代码,也无法掌控数据流向,这种 “依赖他人服务器” 的使用模式,正在一步步削弱人类的计算自主权,与他毕生倡导的 “自由软件运动” 背道而驰。 二、争议背后:三个无法回避的行业真相斯托曼的观点并非孤例,而是戳中了当前 AI 发展的深层矛盾。当我们沉浸于生成式 AI 的高效便捷时,三个被掩盖的真相正在逐渐浮出水面: 1. “伪智能” 的陷阱:事实失真与认知误导斯托曼口中的 “胡说八道”,早已不是技术瑕疵,而是生成式 AI 的底层缺陷。美国学者 Emily Bender 曾直言,大语言模型 “擅长模仿却漠视事实”,它们缺乏对现实世界的具身性认知,只能在文字符号中循环。这种缺陷带来的危害远超想象:有人询问 “贝小戎是谁”,ChatGPT 凭空编造出 “美籍华人作家” 的虚假身份;更严重的是,普通用户难以区分 AI 生成内容的真伪,正如光明网所警示的,“足够先进的科技与魔法无异”,当 AI 以权威姿态输出错误信息,可能导致科普误导、知识偏差,甚至影响决策判断。2025 年引发热议的 “AI 虐向玩偶视频”,正是这种技术滥用的极端体现 —— 算法加持下的不良内容,正在对未成年人价值观造成不可逆的伤害。 2. 计算自由的丧失:私有黑箱与数据霸权作为自由软件运动的核心倡导者,斯托曼对 ChatGPT 的私有属性深恶痛绝,而这恰恰是当前 AI 行业的主流模式。OpenAI、谷歌等巨头构建的 “城堡模式”,以闭源体系为护城河,将模型训练、数据处理全部置于云端黑箱。用户在使用过程中,不仅失去了对计算过程的掌控,更成为模型优化的 “无偿数据劳工”。《纽约时报》诉 OpenAI 案揭露了残酷真相:用户的聊天记录被视为 “训练 AI 理解人性” 的核心素材,这些包含个人隐私、思维逻辑的对话数据,在未明确授权的情况下被用于模型迭代,甚至成为诉讼中的 “关键证据”。斯托曼的担忧正在成真:当我们依赖私有 AI 工具时,不仅交出了数据控制权,更在无形中丧失了独立思考与自主计算的能力。 3. 版权与伦理的双重危机生成式 AI 的 “文字拼凑” 能力,本质是建立在海量数据挪用的基础上。《纽约时报》的诉讼显示,OpenAI 在训练 ChatGPT 时,非法复制了数百万篇受版权保护的文章,通过 “训练数据提取攻击”,甚至能让模型逐字输出原版内容。这种 “拿来主义” 的训练模式,严重侵犯了创作者的知识产权,导致内容生产者损失数十亿美元。而斯托曼强调的 “计算自由”,恰恰包含对知识共享的尊重 —— 自由软件并非免费软件,而是允许用户使用、修改、分发的开放体系,这与当前私有 AI 的 “数据掠夺” 形成鲜明对比。当技术发展以牺牲创作者权益、用户自由为代价,其伦理根基早已摇摇欲坠。 三、破局之路:在创新与坚守之间寻找平衡斯托曼的批判并非要否定 AI 技术,而是呼吁行业回归理性。面对生成式 AI 的狂欢,我们需要在创新效率与价值坚守之间找到平衡点: 1. 开源范式的突围:打破技术垄断与 OpenAI 的闭源模式不同,中国 AI 企业正在探索开源之路,试图破解 “私有黑箱” 困境。有报道指出,开源模式正在 “碾压闭源”,中国 AI 通过开源体系实现全球领先,其核心逻辑正是斯托曼所倡导的技术民主化 —— 开源模型允许开发者查看源代码、优化算法,用户无需依赖巨头服务器,可实现私有化部署。这种模式不仅降低了 AI 使用成本,更让技术发展回归 “普惠” 本质,让中小企业和个人开发者都能参与创新,从根本上削弱数据霸权。 2. 建立 “可信 AI” 的行业标准应对 “胡说八道” 的核心,是构建事实核查与责任追溯机制。行业需要建立统一标准,要求 AI 生成内容必须标注来源、明确区分事实与推测;同时,模型训练应引入 “事实对齐” 技术,减少虚假信息产出。对于用户而言,斯托曼的呼吁值得重视:保持对生成式系统的警惕,不盲目信任 AI 输出,将其视为 “辅助工具” 而非 “权威信源”,在享受技术便利的同时,保留独立判断的能力。 3. 重构数据伦理:明确授权与隐私保护计算自由的核心是 “自主掌控”,这要求 AI 企业重新审视数据使用逻辑。用户数据的收集应遵循 “明确授权、分级保护” 原则,明确告知数据用途,允许用户随时撤回授权;对于敏感信息,应建立专门的保护机制,避免成为模型训练的 “原料”。正如自由软件运动所倡导的,技术应服务于人类自由,而非成为剥夺权利的工具 ——AI 的终极价值,不应是替代人类思考,而是赋能人类更好地思考。 四、结语:技术发展需要 “刹车” 与 “指南针”斯托曼的炮轰,本质上是对科技发展方向的一次校准。当具身智能企业在春晚舞台上争夺 “国民品牌” 地位,当生成式 AI 渗透到生活的方方面面,我们更需要保持清醒:技术的进步不应以丧失自由、漠视真相为代价。ChatGPT 的争议提醒我们,人工智能的未来,不仅取决于算法的精妙、算力的强大,更取决于是否坚守 “以人为本” 的伦理底线。 斯托曼的 “计算自由” 理念,在 AI 时代依然具有强大的现实意义 —— 它不是反对技术创新,而是要求技术发展尊重人类的自主权利、认知真相与创造价值。未来的 AI,既需要 “马年春晚” 所象征的动力与革新,更需要斯托曼这样的 “指南针” 与 “刹车”,在创新与坚守之间找到平衡,让技术真正成为赋能人类自由与进步的工具,而非相反。 |
评论