设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 8920|回复: 82
打印 上一主题 下一主题

[科技前沿] 人工智能会成为人类智能的终结吗

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
发表于 2016-1-29 14:15:35 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 晨枫 于 2016-1-29 08:39 编辑
8 S7 g$ ?% N9 [8 X! }1 q8 x  o  N, m# ]' P8 ]0 J
谷歌的AlphaGo战胜欧洲围棋冠军,引起轰动。人工智能是否会成为人类智能的终结,再次成为热门话题。
6 U, @2 M! u. W& C
. }8 [* ?* R# V) T# S- _计算机在国际象棋里战胜世界冠军,这已经是好几年前的新闻了。围棋比国际象棋更复杂,计算的复杂性是高得多的层次,一般认为不可能靠穷举法计算出正确步骤。谷歌AlphaGo在人类专业对手不让子的情况下,5:0大胜,这确实是惊人的成就,但这依然应该放到大框架下来看。围棋尽管复杂,但依然是有限问题,只有有限的棋盘、有限的棋子。靠穷举法已经不可能,但机器学习、深度学习可以看作更“聪明”的穷举法,只是通过学习减少需要穷举的组合,极大地提高了穷举的效率,相当于研究前人的精华棋谱,掌握在一定棋局时的成功应对路数。谷歌AlphaGo还可以自己与自己对弈,快速积累经验,储存更多成功的棋局,用于实战时的指导。这与人类下棋时并无原则不同,好棋手走一步看两步,这看两步其实也是在评估不同走法的优劣,其中经验(包括来自棋谱的间接经验)指导了评估和测试的方向,减少了无效的“胡思乱想”。
5 ~& Y' A& y! N6 _8 p: \" A5 ?# Z3 L5 T# u' e* @
随着CPU速度的提高、内存容量和速度的提高,计算复杂性的门槛越来越高,机器学习使得“智能比较”和“智能穷举”越来越现实,很多过去认定不可能破解的问题现在可以破解了。按某种估计,围棋的复杂度是10的170次方,比国际象棋的10的47次方多100多个0,换句话说,计算机战胜围棋世界冠军也只是一个时间问题。但这就是人工智能吗?究竟什么是智能?事实上,人类对于智能并没有统一、精确的定义。在某种意义上,这和泛泛的“好”一样,只是相对于“坏”。智能只是相对于愚钝而言。
3 d1 J$ u: ^" d/ X7 g
9 I+ Q* D0 p) z7 m: C% w2 V8 b4 _( t人类智能的最大特点其实在于突变和急智,在于灵机一动、超常思维和创造性。纯经验的思维与条件反射没有本质差异,谈不上智能。在有限棋盘、明确规则情况下,如果能突破计算复杂性的障碍的话,纯经验、穷举法是可以找到最优解的。但换到无限棋盘、模糊甚至动态规则的情况下,纯经验、穷举法就不灵了。赵括的故事人人知道,这不是兵书的错,而是对棋盘和规则的理解错误。熟读唐诗三百首依然只是鹦鹉学舌,单靠这是成不了李白杜甫的。法律是人类智能能做到的最明确无误、最没有歧义的文字,但法庭判决依然不可能由计算机做出,因为再明晰的法律条文依然有模糊的边界,再清楚的被告行为依然有模糊和多义的解释。具体到计算机下围棋上,如果开盘时临时把棋盘加大一倍,棋子增加,人类棋手和计算机棋手都会大吃一惊,但人类棋手会根据经验和原则边摸索边继续下棋,计算机也会,但先前的“机械记忆”的经验就不一定有能力外推到新的棋局了,可能要从头来起。有足够运算速度的话,依然可以边考虑下一步对策,变自我大战3000万个回合,迅速积累经验,但利用前人棋谱这样的学习就难了。$ K, |' L( Y, G3 c) H

  ^( @+ ]) {  C% K& ~; B; G4 H# v9 t人类对于自身的智能依然缺乏理解,尤其是对于突变思维缺乏理解。人工智能按照人类对智能的理解来实现的话,在本质上无法突破这个极限,就好象在二维空间里怎么划道道,也成不了三维的图像一样。除非人类对于自身的智能有了突破性的理解,人工智能终结人类智能的可能性并不存在。但人类理解自身智能可能有逻辑和哲学上的怪圈,自己不可能真正理解自己。这就像永动机一样。
/ }* T! o" ?" ^$ t: J
3 e3 ^9 F0 \8 p但纯经验的人工智能依然可以在明确定义、可重复的任务中达到人类的程度。比如说,早已没人试图在心算中打败计算机了。即使是只可意会不可言传的厨艺,只要可重复,人工智能就能做到。可能缺乏点灵性,但口味还是有保证的。这对人类意味这什么呢?这逼着人类向着智能型发展,只有机器想不出、做不到的事情,才是人类的保留地。这和机器时代正好相反,那时是只要机器能做的,都交给机器去做。英文中有一句话,even a monkey can do it,意思就是说,根本不需要懂脑子。在人工智能发达之后,if a monkey can do it, a monkey will do it, there will be no place left for you。
0 g6 z. f5 Z& q1 [! i
9 T0 _  f- C9 O8 D' `未来社会将高度重视教育和思考,体能、敏捷反而成为修身养性的东西,因为人类的体能和敏捷不可能超过机器,只有人类的创造性思维才是优越性所在。

评分

参与人数 8爱元 +28 收起 理由
希宝 + 2 谢谢分享
煮酒正熟 + 6
坚持到底 + 4 谢谢分享
holycow + 4 淡定
tanis + 2 谢谢分享

查看全部评分

本帖被以下淘专辑推荐:

  • TA的每日心情
    无聊
    2016-1-14 10:34
  • 签到天数: 2 天

    [LV.1]炼气

    沙发
    发表于 2016-1-29 16:23:50 | 只看该作者
    我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。
    : x- g8 R$ H! }9 M: k! K1 J( R: `  }" c) c- @) @5 `
    只不过现在就说人工智能已经和人类的大脑不相上下,为时过早。
    回复 支持 2 反对 0

    使用道具 举报

  • TA的每日心情

    2020-11-20 06:24
  • 签到天数: 1618 天

    [LV.Master]无

    板凳
    发表于 2016-1-29 17:19:35 | 只看该作者
    樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。+ L, P: T7 y* x/ ~3 J% q0 L; p
    4 s' k- y: ]2 a, q
    这五盘棋也没看到飞刀,打劫这些体现人类急智和判断的东西。5 O5 F7 }, Q7 @
    . k  r! K# W- T2 z. o
    飞刀是指开局时定式下发的突然变招,很多都是有陷阱的,对手应对不当,会马上陷入被动。: O4 }; {. o3 A  X2 f  L* U
    + m  ^: }) c! ^. `( h7 v' |
    打劫则是在寻劫材方面,很多虚的判断,比如转换后,实地的变化可以计算,厚薄就比较困难。这计算结果就会影响应手,导致下面的流向变化。# y( \- p& a5 [3 q
    ' v- c- Y$ \, e3 ~) x) C/ R# d
    罗洗河放弃三劫循环大胜崔哲瀚的,不知道谷歌的程序怎么判断。
  • TA的每日心情
    慵懒
    2018-8-13 22:22
  • 签到天数: 188 天

    [LV.7]分神

    地板
    发表于 2016-1-29 17:40:18 | 只看该作者
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。+ B' A# h# _, w0 z; j3 T% o
    而人工智能设计的主观目标之一肯定是不犯错误。
      }) y  Z) d; P如果人工智能的发展仅是超过人类大脑,应该是可以实现的。但人类智能会搭错线的特点也势必会延续,则超强大的人工智能的某钟错误可能是其无法承担的,并将导致人工智能自身的灭亡。4 y4 q: C' g' h; j5 o% b: x* q. k
    于是,超人工智能在某个位面中也许曾大量存在并灭绝过。
  • TA的每日心情
    慵懒
    2016-5-30 10:08
  • 签到天数: 197 天

    [LV.7]分神

    5#
    发表于 2016-1-29 17:50:37 | 只看该作者
    回复

    使用道具 举报

  • TA的每日心情
    慵懒
    2020-1-3 00:51
  • 签到天数: 71 天

    [LV.6]出窍

    6#
    发表于 2016-1-29 17:52:45 | 只看该作者
    自主思考是关键问题。当AI能问出我是谁,从哪里来,到哪里去时,就可以做个合格的高校门卫袅。

    点评

    伙呆了: 5.0
    伙呆了: 5
      发表于 2016-2-1 19:45
  • TA的每日心情
    郁闷
    2016-2-4 15:19
  • 签到天数: 7 天

    [LV.3]辟谷

    7#
    发表于 2016-1-29 18:00:57 | 只看该作者
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。
  • TA的每日心情
    慵懒
    2016-1-18 00:00
  • 签到天数: 62 天

    [LV.6]出窍

    8#
    发表于 2016-1-29 20:03:11 | 只看该作者
    dasa 发表于 2016-1-29 18:000 N  e, [. b0 ^, @) K* d
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...
    . H% X% _5 H* e- s, v; x5 Z' }
    你好,半仙!
  • TA的每日心情
    开心
    2023-1-5 00:48
  • 签到天数: 2591 天

    [LV.Master]无

    9#
    发表于 2016-1-29 20:44:33 | 只看该作者
    只要文章翻译没有解决鬼话连篇问题,就别扯什么人工智能的伟大前景了。
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    10#
    发表于 2016-1-29 20:51:02 | 只看该作者
    dingzi 发表于 2016-1-29 04:40. i) r% O/ ?# e9 l8 O6 c
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。. s8 g% `  ?) {+ m" h7 v( G8 C
    而人工智能设计的主 ...

    . l) |0 B* _0 S9 r+ n9 lAI 没说不能犯错。现在早已经是概率判断了。
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    11#
    发表于 2016-1-29 20:54:32 | 只看该作者
    你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。
  • TA的每日心情
    慵懒
    2018-8-13 22:22
  • 签到天数: 188 天

    [LV.7]分神

    12#
    发表于 2016-1-29 22:01:59 | 只看该作者
    冰蚁 发表于 2016-1-29 20:51* ~/ F! C7 k5 k. }0 {# K& ?: u
    AI 没说不能犯错。现在早已经是概率判断了。
    " e6 H4 ?' E! g- p
    谢谢。我再想想。

    该用户从未签到

    13#
     楼主| 发表于 2016-1-29 22:31:55 | 只看该作者
    史老柒 发表于 2016-1-29 02:23
    4 W+ m* n* M( E+ h3 z8 s; n% m$ x我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。
    4 Q: y3 }0 R( n0 v. Y# \
    # H( K7 G- r5 Y  O, q) c, [# r1 C6 X只不过现在就说人工智能已经和人类 ...

    $ H, K3 j8 e0 c* W# o3 z* P* D我认为从哲学层面上来说就是不可能的,就像永动机一样。不过现在还没有人在理论上证明必然还是不可能,先存着。

    点评

    永动机已经违反了物理学基础了,必然不可能,但人工智能取代人脑我认为不是问题,是肯定能取代。  发表于 2016-1-30 10:33

    该用户从未签到

    14#
     楼主| 发表于 2016-1-29 22:32:58 | 只看该作者
    燕庐敕 发表于 2016-1-29 03:19
    ( \  g( u! J; y' G% k6 x樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。
    & t, @8 I+ `- {7 l# i
      k" ?* {2 O$ m9 `! f, j9 s这五盘棋也没看到飞刀,打劫这些体现人类急智 ...

    9 R1 @; |( P2 L% I1 H2 p1 B至少在理论上,谷歌AlphaGo可以把飞刀和打劫的情况也考虑进去,这就是穷举法的威力了,通吃!

    该用户从未签到

    15#
     楼主| 发表于 2016-1-29 22:41:58 | 只看该作者
    dingzi 发表于 2016-1-29 03:40' b% M0 E% H$ g1 ?) i5 }2 T
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。
    3 D; y' o; g0 V. F  j而人工智能设计的主 ...

    2 j8 n: C' ~# g& |7 a; ~$ c/ G2 n犯错误是肯定的,赵括不就犯错误了嘛,还有前赴后继的贪官。但正如你说的,对物种来说,能够从错误中学习,适应,所以能够承受错误的结果。人工智能的设计目标是不犯错误,但这与人类思维没有原则差别,人类行为在主观上也不是想犯错误。

    该用户从未签到

    16#
     楼主| 发表于 2016-1-29 22:42:37 | 只看该作者
    dasa 发表于 2016-1-29 04:007 f" Z8 a  l5 u( c" B( |
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...
    ( x+ @0 l! f# N, _+ D
    现在还找得到吗?贴出来看看?

    该用户从未签到

    17#
     楼主| 发表于 2016-1-29 22:43:52 | 只看该作者
    冰蚁 发表于 2016-1-29 06:54
    $ u# Y. Y( y7 O  P- D0 v% T% w你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。
    " ?8 }0 {/ K* ]4 d6 p, c( A; v2 B
    同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。”
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    18#
    发表于 2016-1-29 22:48:02 | 只看该作者
    晨枫 发表于 2016-1-29 09:43/ ^2 h2 i% f5 P
    同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。” ...

    . t2 V( L0 {; C永动机是物理定律给限死了。AI 有什么物理上的限制?

    该用户从未签到

    19#
     楼主| 发表于 2016-1-29 22:51:26 | 只看该作者
    冰蚁 发表于 2016-1-29 08:48! Y; v; ?# e, y; m5 A! w% s3 k5 U
    永动机是物理定律给限死了。AI 有什么物理上的限制?

    1 ]/ O5 a$ y0 k/ n4 p6 C. A这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量守恒、物质守恒都是物理定律,但给你来一个能量物质转换,定律哪去了?

    点评

    +1  发表于 2016-1-30 03:29
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    20#
    发表于 2016-1-29 23:04:14 | 只看该作者
    晨枫 发表于 2016-1-29 09:51! U& `1 [/ n3 }4 ~2 d
    这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量 ...
    9 \, J4 X" K% t! \
    大哥,你在说啥呢?能量物质转换什么时候成哲学层面的东西了?

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2024-5-15 10:51 , Processed in 0.045877 second(s), 23 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表