|
|
人类对控制人工智能有执念。小到智驾,大到国家战略指挥,人们都问智驾能不能超过人类控制权。问题的根源在于更加基本的问题:人工智能会超过人类智能吗?如果不能,那人类永远拥有最后控制权。如果能,人类不愿意置身于人工智能的控制之下。 x0 B' l: e6 k- X& w
# N4 O: ~8 u& a7 R* ^( H1 o
其实,人工智能是否会超过人类智能,这在科学层面和哲学层面上是两个问题。8 ^$ u' e; B8 G
a' V' z' `+ Q# f在科学层面上,人工智能超过人类智能是有可能的,尤其反映在已知规则和有限问题空间的决策速度和执行精度上。比如说,智驾可以眼观六路耳听八方,可以在恶劣气候和黑暗条件下全天候工作,而且不知疲倦;紧急避让机动可以充分考虑当前车重、车辆动态特性、路况等。
8 p$ z$ j3 M# {* K# d
+ W8 b# v' l# y9 P3 U9 w在哲学层面上,人工智能是否能超过人类智能就不大好说,首先连什么是智能都没有精确、统一的定义。智能或许可以说是根据知识和感知做出的判断、决策,感知还好说,但知识到底如何定义又成了问题。说到底,知识有显性的,还有隐性的;有成文的,更有不成文的。现在人工智能可以“读尽天下诗书”,这可以扩大到图像、音频等非文字的信息,但大量“只可意会不可言传”的东西怎么办?人类自己都不知道如何显性化,人工智能如何依此来训练?5 S+ S; n, [ z! F/ F7 j$ Z+ T+ F
' Q1 T/ s& _; S人类在认识自然的过程中,对自身反而最缺乏认识。
5 _/ C( J4 ^' ~% t: Y. ]' O5 l- O4 \& E% y* X' b! k6 x
但人工智能是否会超过人类智能的问题依然存在,最主要的是:人工智能会不会做出违反人类利益的决策?: e: D+ |3 S7 ]$ v- Q
8 U& U! t3 O1 Y6 @& {突然想到:人类对“完全控制人工智能”的执念会不会和父母对完全控制子女的执念一样?2 J* y% E; _, m+ _. I; E7 F& c* g
4 ^6 f$ v Q6 h" a7 o7 c& Q好在父母大多明白最终必须放手的道理,只是情不自禁地还想控制,直到控制不动、子女不服管,或者自己力不从心,承认“老不中用”了,只能放手。% Y4 J4 O, Q: e: A" h; L
* I8 M0 c! o$ ~8 ^1 s" c
说起来,人类的代际关系和人类与人工智能的关系还不同。
+ O! {5 u& D8 T' M3 }4 W# y7 ^& W `) V, e* N6 d! X- p
没有人会觉得自己会长生不老,谁都承认自己终将糊涂老去,世界终将是子女一代的,所以不管如何想控制子女,最终必须在某个时候放手,只是情不自禁地想这个时刻越晚越好。“为了子女好”是强大的理由,但“好”与“不好”是由自己判断的,“为了子女好”最终还是怕作为自己的延续的子女的生活失控。
0 g8 C6 G( e1 B( S8 K4 z. v6 i& Q1 F6 y3 _
但作为个人,有这个力不从心和代际更替的概念;作为人类整体,没有这个力不从心概念,人类不会在整体上“老去”,这就重新定义了“父子关系”。换句话说,从人类来看,人工智能必须永远听从控制,尤其是在人工智能“有可能做得更好”的情况下。9 \" q: A/ p8 ~5 z" f" ?; B
2 E/ e# P8 t+ K/ [7 q m r. X3 \
很多父母并不完全信任子女,只是“没办法”了才放手。从整体上永远“长生不老”的人类也无法完全信任人工智能,这或许是“人类必须控制人工智能”执念的很大因素。
4 @& ~5 j8 k2 b n) q, a. a& r8 }7 s9 m* C }; _/ R2 K( F$ X, Q
这不是结论,只是猜想。欢迎反驳。 |
评分
-
查看全部评分
|