
陈白 / 文 刚刚过去的国庆假期,整个科技圈最火热的话题莫过于美国人工智能研究与开发公司 OpenAI 基于 Sora2 技术推出的 AI(人工智能)短视频应用 Sora 的爆火。
应用情报提供商 Appfigures 发布的最新数据显示,OpenAI 旗下视频生成应用 SoraApp 自 2025 年 9 月 30 日上线以来,首周在 iOS 平台下载量达约 62.7 万次,这已经超过 2023 年初 ChatGPT 发布首周的 60.6 万次下载量。而且,Sora 截至目前还是内测邀请制,这也意味着,Sora 的影响力甚至可能大于当初的 ChatGPT。
Sora 的产品形态,和我们现在所熟悉的所有短视频应用已经没有太多差别——都是一键上划就能够刷到新的短视频。唯一的不同是,内容创作者不再需要拍摄和上传视频,而是通过输入一行提示词,AI 就能够生成虚拟视频。这也意味着,AI 生成的内容未来将大量充斥互联网空间。
但 Sora 的出现,令商业上的探索可能都变得相对不那么重要,这是因为,以 Sora 为标志的 AI 短视频,已经开始触及更深层次的社会机制。相信已经有越来越多的人发现,短视频平台正在出现许多已无法分辨真假的内容。当大量的 Sora 式视频充斥信息流,我们所感知的世界,有多少是客观存在,又有多少是算法生成的 " 超真实 "?面对一个 " 眼见不再为实 " 的未来,我们的认知能力和新技术应对能力都将迎来巨大挑战。
法国社会学家让 · 鲍德里亚在其著作《拟像与仿真》中提出的 " 超真实 " 概念,精准地预言了我们当下的处境。他认为在后现代社会中,由媒介制造的符号和模型将脱离其所指代的现实本体,甚至取代现实。Sora 所代表的 AI 技术,正是这一理论最具体的演绎。过去,图像的 " 失真 " 背后总存在一个可供参照的 " 原件 ",但 Sora 的逻辑是 " 无中生有 ",其创造的内容在光影、物理交互乃至情感表达上都无可挑剔。这意味着,我们正进入一个拟像不再需要伪装成现实,因为它本身就能直接生产 " 现实 " 的时代。
我们固然需要为这种强大的创造力欢呼,但同时也必须及早看到,如果说此前的 AI 技术应用更多是在效率层面的革新,那么 Sora 已经触及了信息真实性这一社会信任的基石。
因此,探讨 AI 治理已经刻不容缓。AI 合规不仅是遵守法律条文的被动行为,更是一种主动的技术伦理构建,它要求企业在模型训练、数据使用、内容生成和发布的全链条中,都必须嵌入安全、透明、可问责的机制。这包括开发可靠的内容溯源和数字水印技术,在产品设计上遵循 " 伦理先行 " 的原则,通过显著标识、限制特定敏感内容的生成等方式,主动为用户提供判断的依据。
然而,面对指数级增长的 AI 生成内容,仅依赖平台方的自我监管和事后监管的法律法规已经远远不够。技术的进化速度总是超越治理的建设速度,因此,真正的第一道防线,也是最重要的一道防线,必须建立在每一个社会成员的技术认知之中。这凸显了推行 AI 通识教育刻不容缓的重要性。
我们所说的 AI 通识教育,并非要求每个人都成为算法工程师,而是旨在培养一种面向 AI 时代的、全新的批判性思维和媒介素养。这种教育的核心,是帮助公众理解 AI 生成内容的基本原理,认识其能力边界,辨别其潜在风险,并建立使用和传播 AI 内容的伦理观,比如对 " 深度伪造 " 在名人形象、个人隐私上的滥用问题保持警惕,以及认识到算法偏见可能加剧社会不平等等一系列问题。
AI 合规与 AI 通识教育,是应对这场认知革命挑战的一体两面,前者是自上而下的技术与制度 " 安全带 ",后者是自下而上的社会认知 " 免疫力 ",二者缺一不可。一个受过良好 AI 通识教育的社会,能够更好地识别和抵制虚假信息,同时也会对科技公司提出更严格的合规要求,从而形成一个正向的治理循环。
技术的洪流已经无法阻挡,我们唯一能做的是加速构建能够驾驭这股洪流的堤坝。在这场由 AI 掀起的认知革命中,提升全民的 AI 素养,并建立完善的合规框架,不仅是为了应对潜在的风险,更是为了确保我们能够负责任地利用 AI 技术,去真正创造一个更富有想象力与可能性的未来。
(作者系资深媒体人)