设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 8971|回复: 82
打印 上一主题 下一主题

[科技前沿] 人工智能会成为人类智能的终结吗

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
发表于 2016-1-29 14:15:35 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 晨枫 于 2016-1-29 08:39 编辑
' B' g; k+ r+ P, g) R) M; d( f5 W5 Y8 M( u+ P; x
谷歌的AlphaGo战胜欧洲围棋冠军,引起轰动。人工智能是否会成为人类智能的终结,再次成为热门话题。! g+ C$ l/ m# \8 `* i
+ |2 t$ ]4 f) L+ k3 B! E4 @8 @$ D  o
计算机在国际象棋里战胜世界冠军,这已经是好几年前的新闻了。围棋比国际象棋更复杂,计算的复杂性是高得多的层次,一般认为不可能靠穷举法计算出正确步骤。谷歌AlphaGo在人类专业对手不让子的情况下,5:0大胜,这确实是惊人的成就,但这依然应该放到大框架下来看。围棋尽管复杂,但依然是有限问题,只有有限的棋盘、有限的棋子。靠穷举法已经不可能,但机器学习、深度学习可以看作更“聪明”的穷举法,只是通过学习减少需要穷举的组合,极大地提高了穷举的效率,相当于研究前人的精华棋谱,掌握在一定棋局时的成功应对路数。谷歌AlphaGo还可以自己与自己对弈,快速积累经验,储存更多成功的棋局,用于实战时的指导。这与人类下棋时并无原则不同,好棋手走一步看两步,这看两步其实也是在评估不同走法的优劣,其中经验(包括来自棋谱的间接经验)指导了评估和测试的方向,减少了无效的“胡思乱想”。' m) X6 o! _: S! ?/ U) \- }

8 c" j# Q( j' G) Z随着CPU速度的提高、内存容量和速度的提高,计算复杂性的门槛越来越高,机器学习使得“智能比较”和“智能穷举”越来越现实,很多过去认定不可能破解的问题现在可以破解了。按某种估计,围棋的复杂度是10的170次方,比国际象棋的10的47次方多100多个0,换句话说,计算机战胜围棋世界冠军也只是一个时间问题。但这就是人工智能吗?究竟什么是智能?事实上,人类对于智能并没有统一、精确的定义。在某种意义上,这和泛泛的“好”一样,只是相对于“坏”。智能只是相对于愚钝而言。1 O- c' w4 F% r
+ H3 j* I$ s3 A( B4 ?# M( J& V" c3 x& @
人类智能的最大特点其实在于突变和急智,在于灵机一动、超常思维和创造性。纯经验的思维与条件反射没有本质差异,谈不上智能。在有限棋盘、明确规则情况下,如果能突破计算复杂性的障碍的话,纯经验、穷举法是可以找到最优解的。但换到无限棋盘、模糊甚至动态规则的情况下,纯经验、穷举法就不灵了。赵括的故事人人知道,这不是兵书的错,而是对棋盘和规则的理解错误。熟读唐诗三百首依然只是鹦鹉学舌,单靠这是成不了李白杜甫的。法律是人类智能能做到的最明确无误、最没有歧义的文字,但法庭判决依然不可能由计算机做出,因为再明晰的法律条文依然有模糊的边界,再清楚的被告行为依然有模糊和多义的解释。具体到计算机下围棋上,如果开盘时临时把棋盘加大一倍,棋子增加,人类棋手和计算机棋手都会大吃一惊,但人类棋手会根据经验和原则边摸索边继续下棋,计算机也会,但先前的“机械记忆”的经验就不一定有能力外推到新的棋局了,可能要从头来起。有足够运算速度的话,依然可以边考虑下一步对策,变自我大战3000万个回合,迅速积累经验,但利用前人棋谱这样的学习就难了。4 _, |- q' x! A8 a, K( N

$ s3 Y3 t. ~4 v, e0 }2 u! T人类对于自身的智能依然缺乏理解,尤其是对于突变思维缺乏理解。人工智能按照人类对智能的理解来实现的话,在本质上无法突破这个极限,就好象在二维空间里怎么划道道,也成不了三维的图像一样。除非人类对于自身的智能有了突破性的理解,人工智能终结人类智能的可能性并不存在。但人类理解自身智能可能有逻辑和哲学上的怪圈,自己不可能真正理解自己。这就像永动机一样。1 E. P5 ^' ^' F- z
) s1 }, p( ?3 v7 R$ B, I9 F
但纯经验的人工智能依然可以在明确定义、可重复的任务中达到人类的程度。比如说,早已没人试图在心算中打败计算机了。即使是只可意会不可言传的厨艺,只要可重复,人工智能就能做到。可能缺乏点灵性,但口味还是有保证的。这对人类意味这什么呢?这逼着人类向着智能型发展,只有机器想不出、做不到的事情,才是人类的保留地。这和机器时代正好相反,那时是只要机器能做的,都交给机器去做。英文中有一句话,even a monkey can do it,意思就是说,根本不需要懂脑子。在人工智能发达之后,if a monkey can do it, a monkey will do it, there will be no place left for you。6 k* ]5 y4 P" X9 @7 j2 ]8 l. l

6 G) x: _( ?- S% D未来社会将高度重视教育和思考,体能、敏捷反而成为修身养性的东西,因为人类的体能和敏捷不可能超过机器,只有人类的创造性思维才是优越性所在。

评分

参与人数 8爱元 +28 收起 理由
希宝 + 2 谢谢分享
煮酒正熟 + 6
坚持到底 + 4 谢谢分享
holycow + 4 淡定
tanis + 2 谢谢分享

查看全部评分

本帖被以下淘专辑推荐:

  • TA的每日心情
    无聊
    2016-1-14 10:34
  • 签到天数: 2 天

    [LV.1]炼气

    沙发
    发表于 2016-1-29 16:23:50 | 只看该作者
    我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。7 E" Q# P, n) h! S7 ^  ]. z
    5 R8 F: u( e3 K9 v8 C3 b$ z
    只不过现在就说人工智能已经和人类的大脑不相上下,为时过早。
    回复 支持 2 反对 0

    使用道具 举报

  • TA的每日心情

    2020-11-20 06:24
  • 签到天数: 1618 天

    [LV.Master]无

    板凳
    发表于 2016-1-29 17:19:35 | 只看该作者
    樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。
    ; X9 y+ j1 c/ Q& {. J
    . @) K% N$ l* ^$ S2 i$ f5 S1 s这五盘棋也没看到飞刀,打劫这些体现人类急智和判断的东西。
    5 u0 R* f0 q1 J6 G& I0 s3 Y1 ~# N  E& G! a- H" N  @
    飞刀是指开局时定式下发的突然变招,很多都是有陷阱的,对手应对不当,会马上陷入被动。7 x: v/ s6 t1 Z0 N

    4 I2 \. m0 ~" E1 z* _% h打劫则是在寻劫材方面,很多虚的判断,比如转换后,实地的变化可以计算,厚薄就比较困难。这计算结果就会影响应手,导致下面的流向变化。
    2 h4 r# I5 j6 k3 K. z
    % w0 c9 C7 {7 c. `$ D罗洗河放弃三劫循环大胜崔哲瀚的,不知道谷歌的程序怎么判断。
  • TA的每日心情
    慵懒
    2018-8-13 22:22
  • 签到天数: 188 天

    [LV.7]分神

    地板
    发表于 2016-1-29 17:40:18 | 只看该作者
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。
    2 E+ V4 k* n8 h' Z3 S9 Q" a( V而人工智能设计的主观目标之一肯定是不犯错误。
    , G- P$ r! L  ]8 j9 a如果人工智能的发展仅是超过人类大脑,应该是可以实现的。但人类智能会搭错线的特点也势必会延续,则超强大的人工智能的某钟错误可能是其无法承担的,并将导致人工智能自身的灭亡。
    0 ?" K/ s: z# L1 y9 z' T于是,超人工智能在某个位面中也许曾大量存在并灭绝过。
  • TA的每日心情
    慵懒
    2016-5-30 10:08
  • 签到天数: 197 天

    [LV.7]分神

    5#
    发表于 2016-1-29 17:50:37 | 只看该作者
    回复

    使用道具 举报

  • TA的每日心情
    慵懒
    2020-1-3 00:51
  • 签到天数: 71 天

    [LV.6]出窍

    6#
    发表于 2016-1-29 17:52:45 | 只看该作者
    自主思考是关键问题。当AI能问出我是谁,从哪里来,到哪里去时,就可以做个合格的高校门卫袅。

    点评

    伙呆了: 5.0
    伙呆了: 5
      发表于 2016-2-1 19:45
  • TA的每日心情
    郁闷
    2016-2-4 15:19
  • 签到天数: 7 天

    [LV.3]辟谷

    7#
    发表于 2016-1-29 18:00:57 | 只看该作者
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。
  • TA的每日心情
    慵懒
    2016-1-18 00:00
  • 签到天数: 62 天

    [LV.6]出窍

    8#
    发表于 2016-1-29 20:03:11 | 只看该作者
    dasa 发表于 2016-1-29 18:00  b- C* B+ a$ f# b
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...

    * h& i8 B  w) S( B- K你好,半仙!
  • TA的每日心情
    开心
    2023-1-5 00:48
  • 签到天数: 2591 天

    [LV.Master]无

    9#
    发表于 2016-1-29 20:44:33 | 只看该作者
    只要文章翻译没有解决鬼话连篇问题,就别扯什么人工智能的伟大前景了。
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    10#
    发表于 2016-1-29 20:51:02 | 只看该作者
    dingzi 发表于 2016-1-29 04:406 ?2 Z' ~- N8 i- T2 Y+ ^# [0 `6 N
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。- {* O3 ~) D( `5 ?$ Z9 H4 V7 O" M
    而人工智能设计的主 ...
    - ?) p/ {7 s/ |0 r" n, V; q8 [
    AI 没说不能犯错。现在早已经是概率判断了。
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    11#
    发表于 2016-1-29 20:54:32 | 只看该作者
    你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。
  • TA的每日心情
    慵懒
    2018-8-13 22:22
  • 签到天数: 188 天

    [LV.7]分神

    12#
    发表于 2016-1-29 22:01:59 | 只看该作者
    冰蚁 发表于 2016-1-29 20:51
    * s6 R- E. ?0 QAI 没说不能犯错。现在早已经是概率判断了。
    ( ^7 Z7 T, K. W7 j
    谢谢。我再想想。

    该用户从未签到

    13#
     楼主| 发表于 2016-1-29 22:31:55 | 只看该作者
    史老柒 发表于 2016-1-29 02:231 K; e6 \. D  j0 x$ V! o* ]- m
    我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。7 z( n1 U9 w* i* {

    7 y/ L. X3 |& r6 c4 L$ W只不过现在就说人工智能已经和人类 ...
    & O$ G  |3 q; I9 Q3 A
    我认为从哲学层面上来说就是不可能的,就像永动机一样。不过现在还没有人在理论上证明必然还是不可能,先存着。

    点评

    永动机已经违反了物理学基础了,必然不可能,但人工智能取代人脑我认为不是问题,是肯定能取代。  发表于 2016-1-30 10:33

    该用户从未签到

    14#
     楼主| 发表于 2016-1-29 22:32:58 | 只看该作者
    燕庐敕 发表于 2016-1-29 03:19
    7 y' J8 @# \/ |# y% \0 W7 j& h樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。
    # g- Q* {% ?: Z+ L- W5 i* }2 P1 x
    . a, v: V4 |, [2 b9 R4 O4 y这五盘棋也没看到飞刀,打劫这些体现人类急智 ...
    . W8 t! ~/ P3 F2 }% S* V7 t
    至少在理论上,谷歌AlphaGo可以把飞刀和打劫的情况也考虑进去,这就是穷举法的威力了,通吃!

    该用户从未签到

    15#
     楼主| 发表于 2016-1-29 22:41:58 | 只看该作者
    dingzi 发表于 2016-1-29 03:40  l% Q6 }) E; p& e" w
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。  r, }- W3 H$ N) R8 k* B
    而人工智能设计的主 ...

    + q) X; O; f+ a7 m% I犯错误是肯定的,赵括不就犯错误了嘛,还有前赴后继的贪官。但正如你说的,对物种来说,能够从错误中学习,适应,所以能够承受错误的结果。人工智能的设计目标是不犯错误,但这与人类思维没有原则差别,人类行为在主观上也不是想犯错误。

    该用户从未签到

    16#
     楼主| 发表于 2016-1-29 22:42:37 | 只看该作者
    dasa 发表于 2016-1-29 04:001 U8 Z8 Q$ P- c2 Z
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...
    & Y2 l+ U" f7 \7 y) s  Z9 j: Q
    现在还找得到吗?贴出来看看?

    该用户从未签到

    17#
     楼主| 发表于 2016-1-29 22:43:52 | 只看该作者
    冰蚁 发表于 2016-1-29 06:54
    + U! U4 }1 K+ z你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。

    5 J6 ^; \' D1 p! O; P& W9 ^* |3 r9 Q8 Y同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。”
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    18#
    发表于 2016-1-29 22:48:02 | 只看该作者
    晨枫 发表于 2016-1-29 09:43) M% d% z. k2 [
    同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。” ...

    9 M; s9 x% R, {7 K7 _+ s- Z永动机是物理定律给限死了。AI 有什么物理上的限制?

    该用户从未签到

    19#
     楼主| 发表于 2016-1-29 22:51:26 | 只看该作者
    冰蚁 发表于 2016-1-29 08:48
    % E/ ]) r5 A# o" |6 U* J/ p# M永动机是物理定律给限死了。AI 有什么物理上的限制?

    6 \: K# ]6 X' s7 v这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量守恒、物质守恒都是物理定律,但给你来一个能量物质转换,定律哪去了?

    点评

    +1  发表于 2016-1-30 03:29
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    20#
    发表于 2016-1-29 23:04:14 | 只看该作者
    晨枫 发表于 2016-1-29 09:512 x. `6 n( @" D. o+ f% l
    这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量 ...

    , u" R1 h2 u' I: r7 Y4 E大哥,你在说啥呢?能量物质转换什么时候成哲学层面的东西了?

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2024-5-26 12:09 , Processed in 0.147739 second(s), 25 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表