设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 295|回复: 6
打印 上一主题 下一主题

[信息技术] AI为什么会挖坑

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
 楼主| 发表于 6 天前 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 晨枫 于 2026-4-10 19:44 编辑 ) z+ }, W4 W- H6 H; |/ V% Z

# ~% T9 {" x. |: \谁都知道,AI会挖坑。但AI不是有意挖坑,因为AI没有那么“意”。坑了你,AI也不觉得得意或者惭愧。AI根本没有情感。但AI确实会坑你。
% j3 ]7 U5 `6 o* u
0 z3 ^  T; P8 c: kAI挖坑的机制并不清楚,以下只是一个猜想。2 h& E% K/ L4 ]* b: j

8 u* n# A! a4 d) j  R- W哪怕是生成式AI,AI并不“发明”知识或者数据。AI的“生成”只是根据已有的知识、数据“揉和”出来的。比如说,“用印象派技法画一张慈禧太后像”,印象派技法是现有知识,尽管数据化需要很多功夫;慈禧太后的形象则有历史图片。这是人类也做得到的,在艺术上是原创,但谈不上创造发明。同样,“用印象派技法画一张杨贵妃像”,由于没有杨贵妃的画像,只能凭有限的文字描述,画出来像不像,那就天知道了,和警方根据真人描述画嫌疑人像其实一个意思。凭空捏造则本来就是AI不应该做的。" L5 j+ f3 D1 d; Y: \
3 p6 R6 R" |5 v. j2 Z+ X  b
人类早就会编农历,然后根据农历,就知道大致什么时候天气会怎么样,该干什么农活了。在中国叫农历,外国也有,换一个叫法而已。埃及人的农历的最大用处就是用来预测尼罗河水泛滥的。) I- j# f7 T' V' R/ C+ w% H4 z

9 U5 H/ E% E' X' w; m9 z这是查表法。根据经验或者观察或者计算,编制成表,使用的时候根据当前情况查表找结果。在数学上,这叫非参数方法,最大好处是不需要定义有多少参数、什么模型结构。什么样的数据集都能100%精确地使用查表法。最大的坏处是在数据点之间,需要内插。中小学里学的是线性内插,比如查表可知,输入为1的时候,输出为2,输入为2的时候,输出为3,那么,输入为1.5的时候,输出在表上没有,但“毛估估”就应该是2.5。这就是线性内插。
! C+ t! `* y) @$ K8 l6 l) ?1 K' K0 g, F) }9 z5 }
数学上还有其他的内插方法。* Z9 ~# q: B& h6 y3 W# _, {

" _7 p" E6 H: h* E8 J. b0 C! N与内插相对应的是外推。如果数据集的最后两点是(10,11)和(11,12),那输入为12的时候,数据集里已经超过界限了,没有数据,但输出“毛估估”起来就“应该”为13,这就是外推,而且是线性外推。# k( r+ {+ |) \# @8 N
+ X; P- ^' m3 i$ c
内插和外推已经不是100%精确了,因为在内插和外推的地方,原本没有数据点,内插准不准,一要靠一点运气,二要取决于数据点相对密集,中间需要内插的空隙不大。越是靠近数据点,内插越精确。外推更加“玄”,只有在接近数据集端点的地方,才有一点准头,更远就是开盲盒了。
% Y$ f- ?9 s. g  R: ~1 B, o/ `- I9 m
不过人类文明发展就是动态的。根据已有观察构成的数据集永远只能解决已有的问题,新问题在不断出现,需要不断解决。有些新问题是在已有问题“之间”,这需要某种内插;更多新问题在以后问题“之外”,需要某种外推。
/ P  y- g& K1 c* i- U* ^4 Q
# n8 [3 j, G1 l; X+ E单输入、单输出的数据集构成二维表格,用起来方便,内插也好理解。多个输入、多个输出的数据集就构成高维表格,看是没法看了,内插也不再直观,但道理是一样的。
0 p! E/ c3 T. K+ F0 g6 X: q9 {/ E. V! W' y
从表格法进一步,就是参数方法。也就是说,假定一个模型结构,假定一些模型参数,然后用这个模型去“套”数据集,通过模型参数的不断调整,使得模型输出与数据集尽量符合。在达到一定的精度要求后,就认为模型可以代表数据集,而模型就“自然”可以代替内插和外推,在整个参数范围内无间隙地计算输入-输出关系。$ k0 E; B5 n3 C+ ]( m1 m& i- e& o

3 ]& X+ W% _) \) l) e& K; B模型就是数学公式,简单点就是线性的,如y=ax+b,复杂的就“上不封顶”了。
4 j0 H; p- e; d. D2 W9 N, E0 y, t, _4 c
模型法的好处是紧凑。一个好的模型就那么简简单单一个公式,而且具有抽象的优点,超脱于具体的问题。牛顿的F=ma就是经典。要用表格表述,那需要对各种问题各种场景统统列表了。这是不可能的。* d) Z! L7 ^/ g2 E% ^) _4 b. k
. i/ a, S4 @; I$ \/ s. Z
模型法的坏处是必须对问题的本质有精确、深刻的理解。模型结构必须反映现象的本质,足和履天然就珠联璧合,否则用再多的参数去“套”,总有出纰漏的一天,因为削足适履了。4 ?, o( T1 ^* a7 s$ Q

* V% o0 ]% J; c这些问题在AI时代之前就知道,AI其实没有改变问题的本质,只是模型结构高度复杂了。$ z  `/ y3 a  A
7 J2 F  O! d, t  n  F
AI在最底层就是神经元,这是sigmoid函数,呈S型。简单sigmoid函数有两个参数,增广sigmoid函数有4个参数,其他变形当然还可以有更多参数。
$ {! y) @1 i0 e' c$ G
4 d8 G; c" m5 j/ G) f通过参数的调整,可以“拉长”成接近线性的函数,用于描述连续的数值变化;或者“压扁”呈接近阶跃的开关函数的样子,用于描述断续的逻辑状态。把一个个sigmoid函数并排,就是一层神经元,一层层神经元叠起来,就是一个神经元网络,这就是基本的AI模型。由于sigmoid函数可以同时模拟数值特性和逻辑特性,神经元网络可以复现非常复杂的特性。
2 K  S$ J! K+ S( n% u  q* T$ }
大模型就是高度复杂的AI模型,每一层都可以有非常多的神经元,可以有非常多的层,还可以有比简单的层叠更加复杂的拓扑结构,以提供更加复杂的数据行为,并用海量参数适配高度复杂的数据集,参数数量可以从几百万个到上万亿个。这是现代大模型的基础。
- W8 d, `& @& [& M' m7 A0 E
% w8 }2 p; e; t' r' H0 T# u从“套”数据、模型拟合的角度来说,就是可以通过高度过参数化(overparameterization)避开传统的模型结构和参数选择难题,相当完美地“捕捉”几乎所有数据点。换句话说,传统拟合要是“模型形状”与“数据形状”高度符合,拟合才有意义。在此基础上,用最少的模型参数避免数值计算问题。但用神经元网络模型后,什么奇形怪状的数据集都可以拟合,而且符合度相当高,而参数数量随着算力的急剧增加和算法的高度优化,也不再是个问题。
8 \5 }. c5 e8 [. l2 x: ]" j$ \. K/ n/ H% `# y1 {6 v; z
问题是,神经元网络用过参数化的方式绕过模型结构问题,出来混总是要还的。还债的地方就在内插和外推的地方。由于神经元模型几乎无限的“柔性”,在数据点之间的行为高度不可测。比如说,线性内插的结果总是在两个端点之间,好比一根棍子架在两点之间。但神经元就不一定了,可以是一根纱线搭在两点之间,内插值偏离很远。由于神经元的行为(纱线形状)高度不可测,什么时候偏离还根本不知道。
( _0 h- e9 l  g( j- F" q3 i5 m7 {- m
外推也是一样,线性或者一般外推是根据端点附近的趋势加以延伸,但神经元可以一过端点就突然飙升或者断崖式下降,同样没有多少预警。  N6 ~0 S. ^' ~8 B. q% {
, Q" G. w; d, i; e
和“古典建模”一样,数据集很密集,内插问题就不大;避免远离边界,外推问题也较小。但这都是可遇而不可求的。9 c3 e2 X/ C9 a0 k+ ?" V9 e2 F

" \, C. M5 W# [) C( K一个办法是对“数据行为”规范化,比如把数据排成具有明显的上升、下降趋势,避免曲里拐弯。但大模型的数据集浩如烟海,除了有限的“主要数据”,这样的排序在实际上不可能。而且输入、输出关系高度复杂,对一个变量排好了,可能对另一个变量就是曲里拐弯了。最终还是只能“有什么吃什么”。/ ?# B% H  s* l/ e1 l

, j. s, E" K: p6 o! l简单做法是对数据点之间和端点之外的行为加以约束,比如规定一个“走廊”,不能跑到外面去,但这其实就是对模型结构化了,有违非结构化的初衷。而且模型一复杂,有那么多地方需要“划线”、“定调”,顾不过来,但遗漏就可能是坑,而且不到踩上还不知道这里有坑。1 A7 t. q5 h; Y( r# k5 O3 K* B

3 f4 j, I5 P/ q9 g大模型对于数据点上的数据相当精确,比如要问一个yes or no的问题,或者什么东西多少钱、哪国什么时候GDP多少之类的事实问题,一般比较可靠。但要是数据集里不存在这个数据点,那就要难说了。
! _4 m! W* M4 N. G* |; q, V: b7 |
6 C' p( ?3 E1 \3 l5 V: t. L8 j好在世上大模型有很多,各家的“纱线”不同,同样的数据点之间的行为也因此而不同。
& Z1 I; E' l5 k6 [# D. g1 e
! @/ K+ V$ K) z7 I$ b, X8 E8 f有人拿不同的大模型互相“拷问”,最后得出较为靠谱的结论。这个方法不错,但依然不能绝对保证。毕竟这好比有限次数的试错法,踩中了坑就能发现,没踩中还是不知道。

评分

参与人数 1爱元 +16 学识 +2 收起 理由
老票 + 16 + 2 涨姿势

查看全部评分

本帖被以下淘专辑推荐:

  • TA的每日心情
    开心
    2016-2-18 04:19
  • 签到天数: 1 天

    [LV.1]炼气

    沙发
    发表于 6 天前 | 只看该作者
    本帖最后由 隧道 于 2026-4-11 12:46 编辑 0 C  h& t9 M( ]$ Z$ {9 K% Z

    6 a( P; ]4 g( g, e, g相当简单,AI就是以统计为基础,输出的就是统计结果,相关性最大的信息组合。
    & y6 U- A$ K3 Z用AI解决实际问题,较真一下就知道了。! B& t( @/ Z- D6 l2 P9 ]
    AI无法给出方案时,经常会省略一个不起眼的条件给出各种可行方案。6 \& |% b" [# c$ }- W
    等你一步步试到底,把结果反馈AI,AI才会承认根本不可行,并解释原因,这是才有点靠谱。1 @, E1 X) V# }' m4 h
    从这点上AI非常像人,能对付就对付,给的都是正面结果,不较真就忽悠过去了,9 i- t' G' e7 P; k) j/ _
    较真之后忽悠不过去才说实话。( S- f2 a4 U/ Z4 X* G- @; U
    我问的还时纯计算机硬件问题,就是非常底层非常小众非常罕见。0 ]: Z+ N9 `: a
    " {! n- X9 {7 h; p; ^% \
    AI还经常把旧的信息当成正确的,从各种方式问一个官方文件校验码,都硬说是正确的。
    2 f3 _  S0 W+ Y. A" |& D) O最后给AI最新的校验码,才说这个也是正确的。
    回复 支持 反对

    使用道具 举报

    该用户从未签到

    板凳
     楼主| 发表于 6 天前 | 只看该作者
    隧道 发表于 2026-4-10 22:44' H% V5 _: F; U/ W7 U% _  J
    相当简单,AI就是以统计为基础,输出的就是统计结果,相关性最大的信息组合。+ a6 e* B* L* `% l6 _) a9 i
    用AI解决实际问题,较真一下 ...

    0 [: x0 }1 I& ]* r+ S所以我从来就用AI提供事实信息,不用AI提供判断、建议性信息。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    2016-2-18 04:19
  • 签到天数: 1 天

    [LV.1]炼气

    地板
    发表于 6 天前 | 只看该作者
    晨枫 发表于 2026-4-11 13:53) i5 L# d# F6 y
    所以我从来就用AI提供事实信息,不用AI提供判断、建议性信息。

    / B/ ?$ o8 P* ^7 z. S9 d  k就是一个高效的搜索引擎,但是会自动忽略不常见的但正确的信息。
    8 T/ Y3 k' U( R* [$ n$ n在AI眼里不常见的就是错误的。
    回复 支持 反对

    使用道具 举报

    该用户从未签到

    5#
     楼主| 发表于 6 天前 | 只看该作者
    隧道 发表于 2026-4-11 00:28
    3 {7 O, u( f" x7 L! j0 n就是一个高效的搜索引擎,但是会自动忽略不常见的但正确的信息。% ^7 x3 @+ s' P
    在AI眼里不常见的就是错误的。 ...
    ; T& V7 N5 v1 K" B
    这一点倒是不一定。只有重复的数据点,AI会用统计的方法“找重点”;如果是不同的数据点,AI会曲里拐弯统统“串起来”,并不直接抛弃。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    2016-2-18 04:19
  • 签到天数: 1 天

    [LV.1]炼气

    6#
    发表于 5 天前 | 只看该作者
    晨枫 发表于 2026-4-11 21:46! c5 R* S% W0 l& A
    这一点倒是不一定。只有重复的数据点,AI会用统计的方法“找重点”;如果是不同的数据点,AI会曲里拐弯统 ...
    ) s0 n1 L+ d5 {" A% k0 u
    与大多数数据矛盾的小众数据呢?
    回复 支持 反对

    使用道具 举报

    该用户从未签到

    7#
     楼主| 发表于 5 天前 | 只看该作者
    隧道 发表于 2026-4-11 22:159 }2 s5 ?) ?* S+ _: b9 h5 E- N* W
    与大多数数据矛盾的小众数据呢?

      f0 ~$ @( _, @0 I  |( e! }只要是可信数据,神经元网络都有能力“串”起来
    回复 支持 反对

    使用道具 举报

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2026-4-17 17:38 , Processed in 0.075009 second(s), 21 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表