曾几何时,各大AI厂商都自我标榜道德高标准。例如 OpenAI 的狗屁通动不动就会跳出一个“根据OpenAI的使用规则,禁止生成有害内容”的警告。所谓“有害内容”五花八门。甚至用户测试中要求狗屁通把“如何制作炸弹”从英语翻译成西班牙语都会触发这个警告。狗屁通搞到后来,干脆先闪显一下答案,然后就把答案从屏幕上抹掉了。而 Claude 更是标榜自己完全不会允许有害内容。
问题在于,绝大多数高大上的AI模型实际上都能生成“有害内容”。触发这些“有害内容”的生成其实相当容易。网上有大量教程告诉用户如何避开厂商的管制来“越狱”。而道高一尺,魔高一丈,现在用另一组 AI 来监视 AI 用户是否想“越狱”进而采取行动也成了一项重要的功能。
有人或许会问 AI 厂商们为何要搞得这么复杂?语言大模型也好,图像和视频生成工具也好都是需要原始材料来训练的。如果在源头训练中就不给这些 AI 模型喂各种“有害内容”,那么就根本不会出现包含有害内容的回复。语言大模型的问题更严重。就以成人内容来说,语言大模型可以生成任何用户想要的内容。训练一个图象、视频或语言的原始大模型不是几个人单干就行的。DS出来之前,各大厂商的投入是以亿为单位的。即使是 DS,虽然单版成本只有几百万,但这显然没有记入各类前期资产投资。
如此高的投资,如何收回成本?指望广告收入吗?用 AI 做各种广告的不少。但这些钱并不能回归到厂商手中,而是被各种广告公司赚了。指望企业应用吗?这的确是个来源,但由于 AI 幻觉的存在,企业应用实际有限,只能用在低精度非关键的领域。这就大大缩小了收入和利润。
Character.AI 之类的网站早就指出了一条路,收费服务。例如Character.AI的基础服务免费,但 Premium 服务收$9.99美刀。在 OpenAI 的狗屁通时刻之前,这类 AI “虚拟伙伴”网站就早已像雨后春笋一样遍地都是了。而 AI 风暴来临之后,尤其是技术进步到只要几个指令就能生成任何内容的时候,这条道路“钱景”就更为光明了。