设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 10026|回复: 82
打印 上一主题 下一主题

[科技前沿] 人工智能会成为人类智能的终结吗

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
发表于 2016-1-29 14:15:35 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 晨枫 于 2016-1-29 08:39 编辑
, @/ Q/ y( S) F8 G/ \& e$ B0 G
/ L) D# B  g: d8 H3 m( I5 C谷歌的AlphaGo战胜欧洲围棋冠军,引起轰动。人工智能是否会成为人类智能的终结,再次成为热门话题。/ q9 f% }6 b0 b/ g! q2 L  A! M

* |3 S5 f. e, b$ A1 o4 `& E, E# ~. g计算机在国际象棋里战胜世界冠军,这已经是好几年前的新闻了。围棋比国际象棋更复杂,计算的复杂性是高得多的层次,一般认为不可能靠穷举法计算出正确步骤。谷歌AlphaGo在人类专业对手不让子的情况下,5:0大胜,这确实是惊人的成就,但这依然应该放到大框架下来看。围棋尽管复杂,但依然是有限问题,只有有限的棋盘、有限的棋子。靠穷举法已经不可能,但机器学习、深度学习可以看作更“聪明”的穷举法,只是通过学习减少需要穷举的组合,极大地提高了穷举的效率,相当于研究前人的精华棋谱,掌握在一定棋局时的成功应对路数。谷歌AlphaGo还可以自己与自己对弈,快速积累经验,储存更多成功的棋局,用于实战时的指导。这与人类下棋时并无原则不同,好棋手走一步看两步,这看两步其实也是在评估不同走法的优劣,其中经验(包括来自棋谱的间接经验)指导了评估和测试的方向,减少了无效的“胡思乱想”。3 F  l- A+ R0 N

' y: |" \$ J' f5 v) g5 {, L随着CPU速度的提高、内存容量和速度的提高,计算复杂性的门槛越来越高,机器学习使得“智能比较”和“智能穷举”越来越现实,很多过去认定不可能破解的问题现在可以破解了。按某种估计,围棋的复杂度是10的170次方,比国际象棋的10的47次方多100多个0,换句话说,计算机战胜围棋世界冠军也只是一个时间问题。但这就是人工智能吗?究竟什么是智能?事实上,人类对于智能并没有统一、精确的定义。在某种意义上,这和泛泛的“好”一样,只是相对于“坏”。智能只是相对于愚钝而言。$ ^5 K. B* [+ H& o0 Y1 i3 R

7 X$ ^9 ?3 l; D: o! {人类智能的最大特点其实在于突变和急智,在于灵机一动、超常思维和创造性。纯经验的思维与条件反射没有本质差异,谈不上智能。在有限棋盘、明确规则情况下,如果能突破计算复杂性的障碍的话,纯经验、穷举法是可以找到最优解的。但换到无限棋盘、模糊甚至动态规则的情况下,纯经验、穷举法就不灵了。赵括的故事人人知道,这不是兵书的错,而是对棋盘和规则的理解错误。熟读唐诗三百首依然只是鹦鹉学舌,单靠这是成不了李白杜甫的。法律是人类智能能做到的最明确无误、最没有歧义的文字,但法庭判决依然不可能由计算机做出,因为再明晰的法律条文依然有模糊的边界,再清楚的被告行为依然有模糊和多义的解释。具体到计算机下围棋上,如果开盘时临时把棋盘加大一倍,棋子增加,人类棋手和计算机棋手都会大吃一惊,但人类棋手会根据经验和原则边摸索边继续下棋,计算机也会,但先前的“机械记忆”的经验就不一定有能力外推到新的棋局了,可能要从头来起。有足够运算速度的话,依然可以边考虑下一步对策,变自我大战3000万个回合,迅速积累经验,但利用前人棋谱这样的学习就难了。
) X6 e& s1 X9 R% K0 ~4 s7 f
( ^5 l1 B) F5 G5 [, {人类对于自身的智能依然缺乏理解,尤其是对于突变思维缺乏理解。人工智能按照人类对智能的理解来实现的话,在本质上无法突破这个极限,就好象在二维空间里怎么划道道,也成不了三维的图像一样。除非人类对于自身的智能有了突破性的理解,人工智能终结人类智能的可能性并不存在。但人类理解自身智能可能有逻辑和哲学上的怪圈,自己不可能真正理解自己。这就像永动机一样。4 ?1 H% X4 \  @( i5 M5 C8 O. |% k; X

$ i( S" |$ l  w# W0 ^  q, s但纯经验的人工智能依然可以在明确定义、可重复的任务中达到人类的程度。比如说,早已没人试图在心算中打败计算机了。即使是只可意会不可言传的厨艺,只要可重复,人工智能就能做到。可能缺乏点灵性,但口味还是有保证的。这对人类意味这什么呢?这逼着人类向着智能型发展,只有机器想不出、做不到的事情,才是人类的保留地。这和机器时代正好相反,那时是只要机器能做的,都交给机器去做。英文中有一句话,even a monkey can do it,意思就是说,根本不需要懂脑子。在人工智能发达之后,if a monkey can do it, a monkey will do it, there will be no place left for you。5 P. H& d" b( o! c' ]

  o# `2 {" |$ K# [8 ]未来社会将高度重视教育和思考,体能、敏捷反而成为修身养性的东西,因为人类的体能和敏捷不可能超过机器,只有人类的创造性思维才是优越性所在。

评分

参与人数 8爱元 +28 收起 理由
希宝 + 2 谢谢分享
煮酒正熟 + 6
坚持到底 + 4 谢谢分享
holycow + 4 淡定
tanis + 2 谢谢分享

查看全部评分

本帖被以下淘专辑推荐:

  • TA的每日心情
    无聊
    2016-1-14 10:34
  • 签到天数: 2 天

    [LV.1]炼气

    沙发
    发表于 2016-1-29 16:23:50 | 只看该作者
    我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。3 F2 y: w: w8 N
    5 W- c1 A+ F9 `! X
    只不过现在就说人工智能已经和人类的大脑不相上下,为时过早。
    回复 支持 2 反对 0

    使用道具 举报

  • TA的每日心情

    2020-11-20 06:24
  • 签到天数: 1618 天

    [LV.Master]无

    板凳
    发表于 2016-1-29 17:19:35 | 只看该作者
    樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。
    . u( b$ B' \  L) w
    & [# y/ P* t% M6 p这五盘棋也没看到飞刀,打劫这些体现人类急智和判断的东西。
    # Y0 |: S8 ~: y  w! L1 O/ Y# }: M  i$ M. Q
    飞刀是指开局时定式下发的突然变招,很多都是有陷阱的,对手应对不当,会马上陷入被动。; O1 L, `( l; ]& c/ I3 h

    ' `, E5 C3 S7 X. ?$ T8 E/ o打劫则是在寻劫材方面,很多虚的判断,比如转换后,实地的变化可以计算,厚薄就比较困难。这计算结果就会影响应手,导致下面的流向变化。
    $ ^1 S$ m* K! x9 V( ~; M6 m
    2 v" W4 O8 U4 s) o# h0 m罗洗河放弃三劫循环大胜崔哲瀚的,不知道谷歌的程序怎么判断。
  • TA的每日心情
    慵懒
    2018-8-13 22:22
  • 签到天数: 188 天

    [LV.7]分神

    地板
    发表于 2016-1-29 17:40:18 | 只看该作者
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。
    3 f- f4 l, B! ]0 U5 D而人工智能设计的主观目标之一肯定是不犯错误。: R8 I" E4 q7 p3 c2 E; D( d# ]
    如果人工智能的发展仅是超过人类大脑,应该是可以实现的。但人类智能会搭错线的特点也势必会延续,则超强大的人工智能的某钟错误可能是其无法承担的,并将导致人工智能自身的灭亡。8 l) i; B. j/ h: g
    于是,超人工智能在某个位面中也许曾大量存在并灭绝过。
  • TA的每日心情
    慵懒
    2016-5-30 10:08
  • 签到天数: 197 天

    [LV.7]分神

    5#
    发表于 2016-1-29 17:50:37 | 只看该作者
    回复

    使用道具 举报

  • TA的每日心情
    慵懒
    2020-1-3 00:51
  • 签到天数: 71 天

    [LV.6]出窍

    6#
    发表于 2016-1-29 17:52:45 | 只看该作者
    自主思考是关键问题。当AI能问出我是谁,从哪里来,到哪里去时,就可以做个合格的高校门卫袅。

    点评

    伙呆了: 5.0
    伙呆了: 5
      发表于 2016-2-1 19:45
  • TA的每日心情
    郁闷
    2016-2-4 15:19
  • 签到天数: 7 天

    [LV.3]辟谷

    7#
    发表于 2016-1-29 18:00:57 | 只看该作者
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。
  • TA的每日心情
    慵懒
    2016-1-18 00:00
  • 签到天数: 62 天

    [LV.6]出窍

    8#
    发表于 2016-1-29 20:03:11 | 只看该作者
    dasa 发表于 2016-1-29 18:008 |* {" M/ z9 D. Q
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...
    7 E) @( G! U( W% E' L
    你好,半仙!
  • TA的每日心情
    开心
    2023-1-5 00:48
  • 签到天数: 2591 天

    [LV.Master]无

    9#
    发表于 2016-1-29 20:44:33 | 只看该作者
    只要文章翻译没有解决鬼话连篇问题,就别扯什么人工智能的伟大前景了。
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    10#
    发表于 2016-1-29 20:51:02 | 只看该作者
    dingzi 发表于 2016-1-29 04:40
      i  L& ?7 k) H2 P; I( R感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。" r& B& q( v' m- |2 V
    而人工智能设计的主 ...
    9 u* `1 H- g! M) g
    AI 没说不能犯错。现在早已经是概率判断了。
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    11#
    发表于 2016-1-29 20:54:32 | 只看该作者
    你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。
  • TA的每日心情
    慵懒
    2018-8-13 22:22
  • 签到天数: 188 天

    [LV.7]分神

    12#
    发表于 2016-1-29 22:01:59 | 只看该作者
    冰蚁 发表于 2016-1-29 20:51
    1 m- w! m( N7 V- v  u7 UAI 没说不能犯错。现在早已经是概率判断了。

    + m5 E( n  }* X$ k; n0 ~谢谢。我再想想。

    该用户从未签到

    13#
     楼主| 发表于 2016-1-29 22:31:55 | 只看该作者
    史老柒 发表于 2016-1-29 02:233 _( I" D, [6 ^+ \
    我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。4 j$ q4 @0 o4 P; N+ j: ]

      q6 q0 B8 u( j0 S1 A% F  F只不过现在就说人工智能已经和人类 ...
    ( Y# ^% y6 R5 W; ?( r1 ?: V9 S
    我认为从哲学层面上来说就是不可能的,就像永动机一样。不过现在还没有人在理论上证明必然还是不可能,先存着。

    点评

    永动机已经违反了物理学基础了,必然不可能,但人工智能取代人脑我认为不是问题,是肯定能取代。  发表于 2016-1-30 10:33

    该用户从未签到

    14#
     楼主| 发表于 2016-1-29 22:32:58 | 只看该作者
    燕庐敕 发表于 2016-1-29 03:19
    ( Z( t: ~' m" q2 j$ C4 E6 ^& P$ }樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。0 }7 k2 ]/ V+ A  j- ^  ~  C0 ^

    0 m3 U3 q3 h% W* ~) M% a这五盘棋也没看到飞刀,打劫这些体现人类急智 ...

    ! r/ U5 Q3 D+ m+ I5 Q4 F至少在理论上,谷歌AlphaGo可以把飞刀和打劫的情况也考虑进去,这就是穷举法的威力了,通吃!

    该用户从未签到

    15#
     楼主| 发表于 2016-1-29 22:41:58 | 只看该作者
    dingzi 发表于 2016-1-29 03:40# v5 }4 k$ B% o, z9 ]  L9 n6 x! j
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。6 D& i+ m& W4 J, ]9 s
    而人工智能设计的主 ...
    4 w2 i2 j3 B* q3 s5 [
    犯错误是肯定的,赵括不就犯错误了嘛,还有前赴后继的贪官。但正如你说的,对物种来说,能够从错误中学习,适应,所以能够承受错误的结果。人工智能的设计目标是不犯错误,但这与人类思维没有原则差别,人类行为在主观上也不是想犯错误。

    该用户从未签到

    16#
     楼主| 发表于 2016-1-29 22:42:37 | 只看该作者
    dasa 发表于 2016-1-29 04:004 a/ o/ o  l7 e7 z/ ]& h: u& ?
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...

    & ]! ?/ x; N# s2 Z1 `: Q8 l现在还找得到吗?贴出来看看?

    该用户从未签到

    17#
     楼主| 发表于 2016-1-29 22:43:52 | 只看该作者
    冰蚁 发表于 2016-1-29 06:54* N! q& Z$ f( f1 T
    你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。

    ! R! j3 k7 [6 _) v- z' q同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。”
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    18#
    发表于 2016-1-29 22:48:02 | 只看该作者
    晨枫 发表于 2016-1-29 09:439 y/ r6 N3 B% J* [; u
    同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。” ...
    ( c' _, x+ b5 T+ ^
    永动机是物理定律给限死了。AI 有什么物理上的限制?

    该用户从未签到

    19#
     楼主| 发表于 2016-1-29 22:51:26 | 只看该作者
    冰蚁 发表于 2016-1-29 08:48
    % @. _$ r& P4 E5 B永动机是物理定律给限死了。AI 有什么物理上的限制?

      h( s& G( ~  \  ?+ r$ w7 {! o/ \这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量守恒、物质守恒都是物理定律,但给你来一个能量物质转换,定律哪去了?

    点评

    +1  发表于 2016-1-30 03:29
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    20#
    发表于 2016-1-29 23:04:14 | 只看该作者
    晨枫 发表于 2016-1-29 09:51
    ! ]! ~; G: I! R, i  c这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量 ...

    ' k4 t, p& Z/ x6 S$ y5 h大哥,你在说啥呢?能量物质转换什么时候成哲学层面的东西了?

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2024-12-22 20:16 , Processed in 0.053544 second(s), 24 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表