本帖最后由 xiejin77 于 2025-8-12 10:21 编辑 ) t7 k' q, |& f) X/ P# T& z7 ~
赫然 发表于 2025-8-12 05:07 , B6 J8 a( H4 U E# l# g- s6 Q晨大佬,请教一下。7 A+ Q1 {2 a9 m) }# H. K
自控里面有没有(允许)不回归开放式的结果么?
$ Z N. u: x- H2 O0 t H2 L2 ^
. B& e3 A' A. a9 L
我的看法是,要深入理解生成式AI的工作原理,核心问题在于调和其开放式的输出行为与回归式的底层设计之间的关系。在经典自动控制理论中,系统的首要目标是稳定与收敛。其工作模式是通过闭环负反馈,使系统的状态不断“回归”到一个固定、全局的设定点,任何导致轨迹发散的开放式行为都意味着失控,是必须被抑制的。但是,大语言模型(LLM)虽然在宏观上表现出这种开放性,其微观的运作机制却恰恰是回归式的。在生成文本的每一步,模型都会执行一次“自回归”计算,即根据已经存在的文本序列,通过回归分析来预测出概率上最合理的下一个词元。% F+ }! y0 J: C( y
5 Q! P0 l" h5 h- L2 m7 a( ~" F这一看似矛盾的现象,其关键在于“回归”所指向的目标截然不同。控制系统的回归目标是静态且唯一的,它像一个强大的引力中心,将所有系统状态都拉向它。相比之下,大语言模型的回归目标则是动态且局部的。当模型生成一个新词后,这个词立刻成为新的上下文的一部分,从而彻底改变了下一次回归计算的起点和目标。模型并非要回到某个初始状态,而是在不断变化的语境中,持续地向下一个最符合逻辑和概率的“瞬时目标”前进。6 X0 v3 t; I* ]0 L1 u, G
: k @% X# t2 X o' S# N1 V这好比两种不同的旅程:自动控制系统是一次目标明确的返航,其所有航线都为了最终停泊在唯一的母港;而大语言模型则是一场永不回头的探索式航行,在每一个航点,它都会根据当前的水文气象(上下文)计算出最佳的下一段航线,从而驶向一个全新的、未知的海域。因此,大模型开放式的生成能力与其回归式的底层设计并非矛盾,而是因果相成的统一体。正是通过在微观层面每一次严谨的、以动态目标为导向的局部回归,才最终在宏观层面涌现出了那种强大的、能够探索无限语言空间的开放式创造力。. H7 J' v: y! \ L" e; o
5 \; I5 V' E a
传统自动化系统中的变量的数量一般都是有限,容易写出基于规则的代码。在开放道路上开车的变量就太多了,这也是为什么完全自动驾驶这么难的原因。我觉得端到端的自动驾驶并不追求百分白不出问题,这个是个不可能的任务。它的目标是超过路面上99.99%甚至99.9%的司机就可以了。这个我觉得这个目标通过现在的训练方式应该是可以实现的,毕竟训练数据是经过筛选的,甚至是定制的。发现AI学习了错误的驾驶习惯,把这样的视频从训练数据里剔除就行了。只要达到这个目标,保险公司肯定会提高不使用自动驾驶的司机的保费。到时候人类自己开车反而会变成一种奢侈的娱乐活动。