爱吱声

标题: 智驾是人工智能吗 [打印本页]

作者: 晨枫    时间: 2025-8-12 00:47
标题: 智驾是人工智能吗
本帖最后由 晨枫 于 2025-8-11 11:10 编辑
; ~( X; M2 _% L  j2 Z
$ {% P" g$ ]% ]( Z2 l% z1 }5 ]在现实生活中,智驾可能是最接近人们的人工智能,也是当前“人vsAI谁更行”的争论焦点。但智驾真是人工智能吗?
1 \& J& s; {  y$ N* K; T2 a+ k4 o, W0 g) I
智驾到底包括什么,现在不知道是否有定论,但自动泊车/取车、根据导航自动规划路线、自动车道保持、自动跟车/超车、自动避撞,这些都应该在智驾之内。自动定温、调整座位、设定车内氛围之类就太“低级”了,有点“智”,但与“驾”没关系。3 F0 s$ f0 z" ?& ?( F

/ d% Z# Q3 k7 V" V( L导航和路线规划是独立于智驾之外的,泊车/取车涉及一点局部的导航和路径规划,也谈不上多少“智”;自动车道保持简单,只要传感器到位,控制算法不复杂,谈不上“智”;自动跟车只是定速巡航的扩展,谈不上智,自动超车有点“智”,但也不需要多少“智”,判断本车和相邻车道后车的相对位置、相对速度、相对加速度、路况(直路、弯路、湿滑、盲区),不难判断是否可以超车,然后就是局部路径规划的问题,和自动泊车/取车没有本质不同。
0 r* r! Z, i; @+ n% c; e9 S2 `0 m9 i) [  H& D# F* ~
这些其实都是传统的自控问题,只是以人们觉得新奇的形式出现而已。真正涉及到人工智能的可能是自动避撞。5 Z; Y5 Y- q. \: ]" n/ r0 b2 l1 o

, ^3 V- {3 B; }  k8 a: R6 {9 E对各种障碍的识别涉及到图像识别,这算AI,但也与智驾的“智”不同,智驾的“智”是指用AI决策,或者说智能控制,图像识别只是反馈控制中的传感器部分,只是不是直接测量温度、压力、距离、重量,而是某种场景图像。仅仅包含“智能传感器”是不能算智能控制的。* P6 r, e6 u: B5 e4 t
+ m- E& h; z2 j; Q3 f, L9 V
但要是发生“鬼探头孩子”突然冲入路中,涉及到撞孩子还是自己往路边停车/路障上撞,这就涉及到智能决策了。现在智驾发展到这一步了吗?没有。会发展到这一步吗?不知道。即使L5,也不知道是否涉及都这样的“道德vs法律”的层次。- |. w# d: i, f
2 u0 h# [, n5 j. f: U) l2 I5 i3 H
在L2甚至L3层次,个人不认为智驾是人工智能,最多在传统的反馈控制里包含了一些人工智能的元素,比如图像识别、采用学习模型的非传统控制律。L4、L5层次呢?还比较远,看到了再琢磨。$ _& C7 _. S2 p$ l( y  g, }- d2 L

0 w4 @. o5 f* J# K1 q基于“智驾非AI”的观点,就人机法律责任划分而言,个人认为即使到了L3,也和L1一样,驾车人负全责。L4、L5还要想想。
作者: 密银    时间: 2025-8-12 01:28
看你怎么定义AI了,要求像人类一样思考,现在就没有什么算AI,现在都是统计在什么情况下人类会怎么输出,大模型就是大统计
作者: 晨枫    时间: 2025-8-12 01:38
密银 发表于 2025-8-11 11:28! B" e6 v+ x9 b$ B
看你怎么定义AI了,要求像人类一样思考,现在就没有什么算AI,现在都是统计在什么情况下人类会怎么输出,大模型 ...

1 W2 Z: U% s8 n7 [; m- h- l那就只是把PID改成“智能控制律”而已,还是量变,不是质变。
作者: 密银    时间: 2025-8-12 02:03
晨枫 发表于 2025-8-12 01:38
2 i' F/ [+ s2 m8 d那就只是把PID改成“智能控制律”而已,还是量变,不是质变。

( \/ ~, P7 S* q是的,只不过是从10几个变量变成几亿个,出错是肯定的,但错误率低于人类就是可以接受的,相当于用统一用经验丰富的司机
作者: 赫然    时间: 2025-8-12 02:11
智驾使用的不再是以前自动化控制的理论了。智驾可以说是在模仿人类的驾驶操作,尤其是在行驶避障这类问题上。智驾不用解方程来确定行驶路径和驾驶操作。自控这部分最多只是在方向盘输入到路径实现这种反馈上还在用。大部分情况,例如辨识出道路和路况以后如何规划行驶路径,已经不是依靠自控理论了。自控的目标大部分情况尤其是中间态是有明确描述。而现在智驾操作对中间态是没有规定的,这个属于机器自动决策部分。这部分的决策是不依靠自控理论,而是从向人类学习后,还有自驾自己的经验,总结出来的。这个和自控有本质不同。自控里面是有一些自调节的参数,不过自控里的这些参数的存在是人类规划好的(古典自控理论里,现在自控理论其实开始和自学习的人工智能靠拢了),而智驾里面这些参数人类不主动参与。也就是说,智驾的部分参数或者过程对人类是暗盒。这个在古典自控里面是不存在的。
" B9 b) ~# F! a/ S0 M/ q: D4 U. f% z8 B- {2 ]! h) j; K' e' L
这是俺对自控和AI区别的认识。晨大佬,你这个自控专家来看看俺的认识对不对。
作者: 晨枫    时间: 2025-8-12 02:52
赫然 发表于 2025-8-11 12:11
9 a$ Y. T# a1 N( S) f智驾使用的不再是以前自动化控制的理论了。智驾可以说是在模仿人类的驾驶操作,尤其是在行驶避障这类问题上 ...

( y! ^7 w3 T4 V* s7 B0 a你对自控的理解狭隘了。
3 P& b( O4 O2 }. `( B7 Y8 d. _. K( m% ?$ k, R3 o7 a
没错,智驾已经超越了传统参数模型控制律了,但非参数控制、数字-逻辑混合控制一直存在,尽管理论上没有那么优美。
+ l7 k+ V! U5 B; z/ U
$ L3 l0 T0 ~6 Q* w: T现在的智驾在框架上没有跳出反馈控制,只是换一个控制律而已。某种神经元模型嵌入控制回路早就有了,也没有谁认真把这当做智能控制。
作者: WiFi    时间: 2025-8-12 03:07
本帖最后由 WiFi 于 2025-8-12 03:12 编辑 : O1 F6 x# j# r% M$ C
: Z; H) h2 o7 \. e5 O% ~
晨大想当然了。我的看法是人工智能不人工智能要看决定动力输出控制,刹车控制和方向控制是用什么方式决策并执行的。只要这3个是用车载计算机算出来,并且由计算机决策并“执行”的就应该是人工智能的智驾。你当然可以说这仍然是自控的一部分,毕竟智驾是自控系统的一个非常非常小的子集。
作者: 赫然    时间: 2025-8-12 03:16
晨枫 发表于 2025-8-11 13:52  j9 v, t0 m0 f9 Q; L# Q! I4 r
你对自控的理解狭隘了。! L6 F2 _! |$ `9 F! b/ d/ e. g

1 w: v' L5 j9 V没错,智驾已经超越了传统参数模型控制律了,但非参数控制、数字-逻辑混合控制 ...
现在的智驾在框架上没有跳出反馈控制,只是换一个控制律而已。某种神经元模型嵌入控制回路早就有了,也没有谁认真把这当做智能控制。
* E' ?5 _3 h& B
& x# P, P# {) a0 e
现在的智驾是反过来了。控制律主要在行走部分,就是汽车如何保证车辆在智驾想要的轨迹上行驶。而轨迹本身的产生,不是用控制律来实现的。这部分是AI总结出来的,或者说是根据以往数据凑出来蒙出来的。也就是说,控制律的应用主要是嵌入在AI里面的,而不是AI只是提供给控制律一部分参数。
7 \( ?5 _  I' S( n5 Q* [
' U: t; }" \$ y/ O7 h  n; A& z这个差别是智驾的根本目标是安全舒适得抵达目的地,自控部分是等智驾给出具体指令以后,完全实施,例如,智驾给出车辆计划行驶轨迹,车内温度,音响音量平衡,还有灯光,雨刷,镜子等等参数。控制律保证这些参数的实现。自控是实现部分,大脑已经不是自控理论实现的,而是AI来搞的,就是那些具体目标参数的生成,是AI的。这部分是智驾的根本。$ L" k; U  r; X" q

' Z# l* v- w4 n$ R2 [智驾试图替代的是以前司机的工作,而主要不是以前车的功能。以前车的功能依然还是自控部分。
作者: 赫然    时间: 2025-8-12 03:26
密银 发表于 2025-8-11 13:03
; G& Z2 P: _, C" ^是的,只不过是从10几个变量变成几亿个,出错是肯定的,但错误率低于人类就是可以接受的,相当于用统一用经验 ...
( F& n# V% H3 |% E. D/ Q% k* _6 q% c
依照俺的理解,AI不用自控中变量这个概念。自控中,控制的方法是相对固定的,是个依靠变量的函数。AI不是函数,它在猜,根据以往数据来猜下一步。它只看关系,不使用逻辑。神经网络的架构和自控完全不同,其数学表现也是完全不同的。最多可以说是相关性的函数,而不是变量的函数。
作者: 五月    时间: 2025-8-12 03:49
" f( i' h/ D( `) A+ c! ~$ F  w
但要是发生“鬼探头孩子”突然冲入路中,涉及到撞孩子还是自己往路边停车/路障上撞,这就涉及到智能决策了。现在智驾发展到这一步了吗?没有。会发展到这一步吗?不知道。即使L5,也不知道是否涉及都这样的“道德vs法律”的层次。
& ]% e, j, g/ d) H; e! L& S
( D# U( }9 `# L& E$ V0 Y! N9 D4 K
那晨大你得先定义“智能决策”是啥。据说华为智驾在追尾不可避免的一霎那会让车头向左偏,尽量避开驾驶员的位置。& @5 v- n: Y, X# X( t+ K  J6 k

; W  C, L" n. h/ X' w我前几天不得不开夜车,双向两车道,开90公里/小时,半夜,乡下没有路灯,很疲倦。我的决策是跟着前车,注意力只集中在保持车道,保持跟前车的距离,其他一概不管。用这种方式保存体力和精力开了4个小时。这算标准的“智能决策”吧。人工智能啥时候能达到这个水平。。。$ w' w3 p% B# `/ J

# m! e3 G; Y  E/ O) a- j' T# o; R* Y; w! B9 k2 U

4 `2 k( N  l) \$ w* X8 L+ h
作者: 晨枫    时间: 2025-8-12 04:12
WiFi 发表于 2025-8-11 13:07' F; I. i* P9 b8 j9 W
晨大想当然了。我的看法是人工智能不人工智能要看决定动力输出控制,刹车控制和方向控制是用什么方式决策并 ...
9 @( C- y. |. p5 m: p; Y4 p$ X
咳,现在什么控制律不是用某种形式的计算机算出来的啊,哪怕是PID?
作者: 晨枫    时间: 2025-8-12 04:14
赫然 发表于 2025-8-11 13:16: G8 T) N* J" a) p" `% k# Z' m
现在的智驾是反过来了。控制律主要在行走部分,就是汽车如何保证车辆在智驾想要的轨迹上行驶。而轨迹本 ...

+ W0 R) q* Q. V轨迹形成为什么不是自控的一部分?想想导弹、飞机的autopilot。
作者: 赫然    时间: 2025-8-12 04:47
晨枫 发表于 2025-8-11 15:14" d: o/ `7 P, k- x% E7 ?) R
轨迹形成为什么不是自控的一部分?想想导弹、飞机的autopilot。
- K5 P( \4 |; |/ l
不是的。。。
0 ^6 B" n9 Q: @) g- e
* V  _' c+ Y! p. Z1 Z2 m- C自控是实现要求轨迹。AI生成轨迹要求。举个例子,智驾会根据驾驶状况,要求车辆在15米的距离上,有个往左0.5米的位移,同时把速度降到25km/h。自控实现这个指令。而产生指令的过程,不是依靠自控一样用函数依照参数来算出来的,而是依照事物的关联性,猜出来的。0 K8 |7 I: K7 S8 p9 O
) O, _0 Q1 `. p) D, v
两者在底层上是不同的。自控设计是有详细规划的决策路径的,差别是参数多少,选择多少。就像导弹一样,轨迹在发射时候基本已经确定了,也许有几个节点可以适当调整,但备选方案都有了。只要条件满足,就进入相应的方案,而不会走到一个不在所有备选方案里的轨迹。而AI不是,AI没有详细规划的决策路径。会出意料之外的结果。当然,这也许就是AI特点,它的界限不是人类的界限。
作者: 赫然    时间: 2025-8-12 05:07
晨枫 发表于 2025-8-11 15:14
* T% P& R$ ~, H- |8 O轨迹形成为什么不是自控的一部分?想想导弹、飞机的autopilot。

; e9 y$ ~+ T) }7 Q晨大佬,请教一下。! P9 i- i6 |8 m7 b: K
自控里面有没有(允许)不回归开放式的结果么?
- j2 d/ n9 b4 c* w& O  h2 {5 a/ Y
4 D4 m! g5 r, f9 ~* n; o4 Y+ _我对自控的理解是,不允许的。这样系统就可能振荡发散了。AI的输出好像是开放式的,而且允许不回归的(这个需要请教一下谢老师@xiejin77  )。如果我的理解错了,显然自控已经进化到和AI同步了。
作者: 晨枫    时间: 2025-8-12 07:20
五月 发表于 2025-8-11 13:49
1 u: y* ~% c9 p- ], r& b$ f那晨大你得先定义“智能决策”是啥。据说华为智驾在追尾不可避免的一霎那会让车头向左偏,尽量避开驾驶 ...
" I! B: {4 f: J/ e1 T- O
这只是一种pre-set move,没什么智能的。1 D$ P5 w% x8 D$ r9 H
5 L1 F, A% u! k. K  y; f
跟着前车开也谈不上智能。除非限速120,但路面湿滑,你决定还是冒险开120,但智驾决定开90跟前车,那才是智能。
作者: 晨枫    时间: 2025-8-12 07:21
赫然 发表于 2025-8-11 15:07
' k% d1 _' T8 c晨大佬,请教一下。
( [5 d. Q! C5 l% @, N自控里面有没有(允许)不回归开放式的结果么?
; g7 D% a! p% F, l0 R* z
不懂这个不回归开放式是什么东西,因为叫什么?
作者: 晨枫    时间: 2025-8-12 07:29
赫然 发表于 2025-8-11 14:471 E) {) W" e/ C0 N+ J( m+ B
不是的。。。9 O0 Y, c: M. p2 A9 e" k' n/ P

4 m  M5 K$ e  i1 d" y自控是实现要求轨迹。AI生成轨迹要求。举个例子,智驾会根据驾驶状况,要求车辆在15米的距 ...
& M2 F9 p& t2 f( p1 X0 y
你把自控限制在只能使用简单形式的数学公式计算出来的。学院派自控或许是这样,实际自控早就超过了。比如说,用高维表格生成控制目标,在表格的节点之间用内插,这种“野路子”办法确实曾经有人称作“智能”,因为不能用传统自控来描述。直接用神经元网络取代PID也没什么不可以,叫它“智能控制”也是自己开心就好,没人认的。; T& R- y" K% S0 L2 n4 I; C  x3 z

. _8 }( _, J" Q. `( m回路里用某种AI的多得很。比如聚合物切片后的质量控制。black spec用光电检测,其实就是简单的图像识别,看每一个切片(每分钟几十、上百万颗)有没有黑点点,多大,超标就打开旁通,引流到次品那边去。这算智能控制吗?厂商很想这么标榜,但谁都不认的。
作者: 赫然    时间: 2025-8-12 08:33
晨枫 发表于 2025-8-11 18:29' E' g0 c. ~2 ~4 x5 A7 [
你把自控限制在只能使用简单形式的数学公式计算出来的。学院派自控或许是这样,实际自控早就超过了。比如 ...

& K, n  ^7 X3 [) s5 y这些算是智能,是高度自动化。
# ^: B# m  b$ x: I% R& B
( R, C* l7 ?* `7 X: v! ]/ n不过,不是现在流行的以神经网络为基础的人工智能。以神经网络为基础的人工智能只关心相关性,不关心函数变量的因果关系。
6 W; S, G" {7 R- o3 F- J$ W
5 v+ B' d; q6 ]4 D8 m6 I, o以神经网络为基础的人工智能是没有人为设定的决策路径的。
" G% T$ l" {4 f/ g3 |; p
6 z. I- w% v2 ]; z你举得例子里,图像识别可能用了AI(因为很多基础的图像识别不用AI,不用自学习的)。不过整体的流程依然是自控路子。AI只是提供了参数。1 d  M  C1 ^9 d- ]5 a- S, A

" k' r* o2 ~6 i9 K6 H这个例子和智驾,恰恰是相反的。智驾里面,整体决策是用AI的,而部分实现是用自控的。自控部分从AI那里拿指令,从传感器拿数据,而后实现AI给的指令。但是指令的生成,主要依靠AI。
0 N2 r0 [, x" C8 v4 @; ^+ x) J
作者: 晨枫    时间: 2025-8-12 09:21
赫然 发表于 2025-8-11 18:33
) e* Q. x3 ?' u+ L  s# D这些算是智能,是高度自动化。
" c$ x5 o! p8 h, m- `$ C4 Q/ B; d% J8 ^3 a: L& Z
不过,不是现在流行的以神经网络为基础的人工智能。以神经网络为基础的人 ...

( r, A2 K0 p/ h你提到自学习,很好。智驾好像没有自学习环节?
作者: 赫然    时间: 2025-8-12 09:32
晨枫 发表于 2025-8-11 20:21% ^/ @# O8 F" }
你提到自学习,很好。智驾好像没有自学习环节?
5 {7 \- u# `' w$ c- c- @& j! D' ^
自学习是现在神经网络为基础的人工智能的一个特征。现在绝大部分对人服务的人工智能都会自学习,自动适应用户,成为用户的定制版。智驾应该也是的。这个要请@老票 出来谈谈亲身体会了,他被智驾忽悠的如何。。。8 Y6 I, D$ F% b2 P5 U# ^

作者: xiejin77    时间: 2025-8-12 09:38
晨枫 发表于 2025-8-12 09:21) y) v% T3 _. \# j! P* z
你提到自学习,很好。智驾好像没有自学习环节?

, p0 ^, [1 B  T) Y1 E4 D晨大好
2 _3 ?! b0 z! N6 T) [( v8 ?1 L
% e5 [3 ~1 K, H7 P( j6 z- W; {智能驾驶虽然没有直接的自学习,但是还是应用了不少无监督学习也就是强化学习的方法的,所以会受大量的人类驾驶素材中的习惯影响。
作者: xiejin77    时间: 2025-8-12 10:18
本帖最后由 xiejin77 于 2025-8-12 10:21 编辑 3 l' g* Q% o1 E: o$ d0 Z2 N
赫然 发表于 2025-8-12 05:076 K1 w" X, b; `
晨大佬,请教一下。+ b: `# I3 q( Z, L' w$ N( C( _- b
自控里面有没有(允许)不回归开放式的结果么?
9 d: w4 B: r5 Z. u& U) _5 m

- `% u3 G' R7 T. ?% w我的看法是,要深入理解生成式AI的工作原理,核心问题在于调和其开放式的输出行为与回归式的底层设计之间的关系。在经典自动控制理论中,系统的首要目标是稳定与收敛。其工作模式是通过闭环负反馈,使系统的状态不断“回归”到一个固定、全局的设定点,任何导致轨迹发散的开放式行为都意味着失控,是必须被抑制的。但是,大语言模型(LLM)虽然在宏观上表现出这种开放性,其微观的运作机制却恰恰是回归式的。在生成文本的每一步,模型都会执行一次“自回归”计算,即根据已经存在的文本序列,通过回归分析来预测出概率上最合理的下一个词元。
- W" W! {+ {2 n3 G  N* @
& C' h9 F5 [$ o6 j这一看似矛盾的现象,其关键在于“回归”所指向的目标截然不同。控制系统的回归目标是静态且唯一的,它像一个强大的引力中心,将所有系统状态都拉向它。相比之下,大语言模型的回归目标则是动态且局部的。当模型生成一个新词后,这个词立刻成为新的上下文的一部分,从而彻底改变了下一次回归计算的起点和目标。模型并非要回到某个初始状态,而是在不断变化的语境中,持续地向下一个最符合逻辑和概率的“瞬时目标”前进。3 P% f" O9 X0 b; k2 c

) c3 v+ \' P+ y: P7 V这好比两种不同的旅程:自动控制系统是一次目标明确的返航,其所有航线都为了最终停泊在唯一的母港;而大语言模型则是一场永不回头的探索式航行,在每一个航点,它都会根据当前的水文气象(上下文)计算出最佳的下一段航线,从而驶向一个全新的、未知的海域。因此,大模型开放式的生成能力与其回归式的底层设计并非矛盾,而是因果相成的统一体。正是通过在微观层面每一次严谨的、以动态目标为导向的局部回归,才最终在宏观层面涌现出了那种强大的、能够探索无限语言空间的开放式创造力。* I/ r0 w' S2 U6 ^) f+ t3 `) }
. H7 k3 ^9 \: E( J) q9 l
赫然老师的这个问题其实是一个非常好也非常容易混淆的点,我尝试解释一下,爱坛的专家很多,我的不确之处还请大家海涵,欢迎纠正指出。
作者: 晨枫    时间: 2025-8-12 10:29
赫然 发表于 2025-8-11 19:32
1 s' h% E; H: M$ m2 b/ K/ m自学习是现在神经网络为基础的人工智能的一个特征。现在绝大部分对人服务的人工智能都会自学习,自动适应 ...
- L" f% L! J4 ^) b) M
智驾还做不到自学习吧?否则几年下来,各车的智驾岂不都不一样了?4 P& ?9 B* w: Q% ~7 F8 b
5 e8 z% k, d" n' X/ F# Z. D; k
对了,你还提到模型的不唯一通道问题,这应该是AI的特征,数学控制的决策通道和结果是唯一的,同样的输入一定得出同样的输出。' s7 S+ ~4 B5 i& h: c' ]3 z
2 g9 j6 w* t0 G( r8 I, x
AI在理论上可以同样的输入得出有所不同的输出。这在实践中是好事还是坏事,还想不明白。人类的决策也顶多是“统计一致”,具体下来会有细微差别的,手工产品不能完全一致就是这个道理。/ U% U* o& y! T6 T* F2 k

: O% O! q* M+ c- T但现在即使用NN作为控制律,我认为还是通道和结果唯一的。
作者: 晨枫    时间: 2025-8-12 10:30
xiejin77 发表于 2025-8-11 19:38$ H/ H! r  W) Q4 E
晨大好. ~. x% ?* h# I- Y) J& R! k

2 C2 P# m, Z' \0 Q智能驾驶虽然没有直接的自学习,但是还是应用了不少无监督学习也就是强化学习的方法的,所以会受 ...

# s/ W2 l- o& P* m# h! G$ c离线学习、OTA更新?那不是AI独有的,任何软件定义的自控都可以做到。现在都是计算机控制了,都是软件定义自控。
作者: 晨枫    时间: 2025-8-12 10:32
xiejin77 发表于 2025-8-11 20:181 T$ n% A. s  d- a- x* J1 u
我的看法是,要深入理解生成式AI的工作原理,核心问题在于调和其开放式的输出行为与回归式的底层设计之间 ...
. ^4 m7 w6 t7 Q7 i& L# j7 ?" d
讲得好极了。还在学习和回味中。1 H* z' H4 q: z+ }  R$ E+ E: k

% e. e- G4 L5 D4 ~. `& H. w幸好退休了,否则真要重新“学生意”了,好辛苦。
作者: 赫然    时间: 2025-8-12 11:03
xiejin77 发表于 2025-8-11 21:18
3 ]7 G: A; a; P$ ^% T- q( c我的看法是,要深入理解生成式AI的工作原理,核心问题在于调和其开放式的输出行为与回归式的底层设计之间 ...
! M; L$ m9 ]# R" ?, X
写的太棒了。。。专家就是专家。。。
* p. V' f2 R1 U& i1 O. |* B; A% s4 a( r  g2 K& V+ H0 R5 A
我讲不清楚的(其实理解不深刻),你全讲明白了。。。这就是我想说的,而没有能力说清楚的。。。晨大还是看你这个专家的靠谱。。。
! l& \3 }' ?1 B( S: L/ i4 \7 A, \- n( M% [5 s6 U- S* v, ]1 g
俺的砖引来你的玉,没有白抛。。。被晨大说道了一顿,不冤。。。
作者: sleepyr    时间: 2025-8-12 12:19
现在最流行的所谓的基于纯视觉的端到端的人工智能驾驶还是跟自动化有了本质的区别。这个端到端的智驾系统是通过神经网络自主学习出来的,而之前的智驾的系统更多的是依靠人工定义的规则。举个简单的例子,端到端的系统看到红灯停车,不是因为人为把交通规则写到代码里去,而是在训练的数据集也就是车企随车采集的人类司机的真实驾驶记录中,它发现绝大多数的司机看到有这个红色信号之后都会停车,它也就跟着这么做。回到最前面你提到的AI能不能在撞车还是撞人之间做出正确选择的问题,这个主要的困难可能还是训练数据的缺乏,毕竟这种情形出现的概率比较低。但是如果在训练数据里有足够多的做出正确决策的样本。其实这对于现在的自动驾驶来说并不是很困难。现在有的车企的思路是对于这种小概率事件,采用虚拟的视频来训练AI。所以我理解特斯拉之所以选择纯视觉的端到端的方案,除了成本以外,主要其实还是训练数据的来源问题。毕竟人类司机主要是依赖视觉来决策的,而不激光雷达或者毫米波雷达这样传感器。
作者: 晨枫    时间: 2025-8-12 14:07
sleepyr 发表于 2025-8-11 22:190 A/ ?' u$ v3 s6 Y4 G
现在最流行的所谓的基于纯视觉的端到端的人工智能驾驶还是跟自动化有了本质的区别。这个端到端的智驾系统是 ...

% a0 [: W: L8 ?4 U) F# _如果红灯停绿灯行都要靠训练,那智驾完了。
作者: 赫然    时间: 2025-8-12 20:45
晨枫 发表于 2025-8-12 01:07
* v3 G5 P3 `5 l# T: a$ a5 ?# Y如果红灯停绿灯行都要靠训练,那智驾完了。
( C1 q* L8 ~7 j, X, A8 {; l+ K
结果,特斯拉在停牌面前表演rolling stop。。。妥妥的,学坏一分钟。。。
作者: sleepyr    时间: 2025-8-12 21:08
晨枫 发表于 2025-8-12 14:07, ~! N0 Q0 D9 K% A. I8 {0 n0 A
如果红灯停绿灯行都要靠训练,那智驾完了。
  ^& \0 `% v. t$ `& Q" }6 l
传统自动化系统中的变量的数量一般都是有限,容易写出基于规则的代码。在开放道路上开车的变量就太多了,这也是为什么完全自动驾驶这么难的原因。我觉得端到端的自动驾驶并不追求百分白不出问题,这个是个不可能的任务。它的目标是超过路面上99.99%甚至99.9%的司机就可以了。这个我觉得这个目标通过现在的训练方式应该是可以实现的,毕竟训练数据是经过筛选的,甚至是定制的。发现AI学习了错误的驾驶习惯,把这样的视频从训练数据里剔除就行了。只要达到这个目标,保险公司肯定会提高不使用自动驾驶的司机的保费。到时候人类自己开车反而会变成一种奢侈的娱乐活动。




欢迎光临 爱吱声 (http://aswetalk.net/bbs/) Powered by Discuz! X3.2