人工智能会成为人类智能的终结吗
本帖最后由 晨枫 于 2016-1-29 08:39 编辑谷歌的AlphaGo战胜欧洲围棋冠军,引起轰动。人工智能是否会成为人类智能的终结,再次成为热门话题。
计算机在国际象棋里战胜世界冠军,这已经是好几年前的新闻了。围棋比国际象棋更复杂,计算的复杂性是高得多的层次,一般认为不可能靠穷举法计算出正确步骤。谷歌AlphaGo在人类专业对手不让子的情况下,5:0大胜,这确实是惊人的成就,但这依然应该放到大框架下来看。围棋尽管复杂,但依然是有限问题,只有有限的棋盘、有限的棋子。靠穷举法已经不可能,但机器学习、深度学习可以看作更“聪明”的穷举法,只是通过学习减少需要穷举的组合,极大地提高了穷举的效率,相当于研究前人的精华棋谱,掌握在一定棋局时的成功应对路数。谷歌AlphaGo还可以自己与自己对弈,快速积累经验,储存更多成功的棋局,用于实战时的指导。这与人类下棋时并无原则不同,好棋手走一步看两步,这看两步其实也是在评估不同走法的优劣,其中经验(包括来自棋谱的间接经验)指导了评估和测试的方向,减少了无效的“胡思乱想”。
随着CPU速度的提高、内存容量和速度的提高,计算复杂性的门槛越来越高,机器学习使得“智能比较”和“智能穷举”越来越现实,很多过去认定不可能破解的问题现在可以破解了。按某种估计,围棋的复杂度是10的170次方,比国际象棋的10的47次方多100多个0,换句话说,计算机战胜围棋世界冠军也只是一个时间问题。但这就是人工智能吗?究竟什么是智能?事实上,人类对于智能并没有统一、精确的定义。在某种意义上,这和泛泛的“好”一样,只是相对于“坏”。智能只是相对于愚钝而言。
人类智能的最大特点其实在于突变和急智,在于灵机一动、超常思维和创造性。纯经验的思维与条件反射没有本质差异,谈不上智能。在有限棋盘、明确规则情况下,如果能突破计算复杂性的障碍的话,纯经验、穷举法是可以找到最优解的。但换到无限棋盘、模糊甚至动态规则的情况下,纯经验、穷举法就不灵了。赵括的故事人人知道,这不是兵书的错,而是对棋盘和规则的理解错误。熟读唐诗三百首依然只是鹦鹉学舌,单靠这是成不了李白杜甫的。法律是人类智能能做到的最明确无误、最没有歧义的文字,但法庭判决依然不可能由计算机做出,因为再明晰的法律条文依然有模糊的边界,再清楚的被告行为依然有模糊和多义的解释。具体到计算机下围棋上,如果开盘时临时把棋盘加大一倍,棋子增加,人类棋手和计算机棋手都会大吃一惊,但人类棋手会根据经验和原则边摸索边继续下棋,计算机也会,但先前的“机械记忆”的经验就不一定有能力外推到新的棋局了,可能要从头来起。有足够运算速度的话,依然可以边考虑下一步对策,变自我大战3000万个回合,迅速积累经验,但利用前人棋谱这样的学习就难了。
人类对于自身的智能依然缺乏理解,尤其是对于突变思维缺乏理解。人工智能按照人类对智能的理解来实现的话,在本质上无法突破这个极限,就好象在二维空间里怎么划道道,也成不了三维的图像一样。除非人类对于自身的智能有了突破性的理解,人工智能终结人类智能的可能性并不存在。但人类理解自身智能可能有逻辑和哲学上的怪圈,自己不可能真正理解自己。这就像永动机一样。
但纯经验的人工智能依然可以在明确定义、可重复的任务中达到人类的程度。比如说,早已没人试图在心算中打败计算机了。即使是只可意会不可言传的厨艺,只要可重复,人工智能就能做到。可能缺乏点灵性,但口味还是有保证的。这对人类意味这什么呢?这逼着人类向着智能型发展,只有机器想不出、做不到的事情,才是人类的保留地。这和机器时代正好相反,那时是只要机器能做的,都交给机器去做。英文中有一句话,even a monkey can do it,意思就是说,根本不需要懂脑子。在人工智能发达之后,if a monkey can do it, a monkey will do it, there will be no place left for you。
未来社会将高度重视教育和思考,体能、敏捷反而成为修身养性的东西,因为人类的体能和敏捷不可能超过机器,只有人类的创造性思维才是优越性所在。 我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。
只不过现在就说人工智能已经和人类的大脑不相上下,为时过早。 樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。
这五盘棋也没看到飞刀,打劫这些体现人类急智和判断的东西。
飞刀是指开局时定式下发的突然变招,很多都是有陷阱的,对手应对不当,会马上陷入被动。
打劫则是在寻劫材方面,很多虚的判断,比如转换后,实地的变化可以计算,厚薄就比较困难。这计算结果就会影响应手,导致下面的流向变化。
罗洗河放弃三劫循环大胜崔哲瀚的,不知道谷歌的程序怎么判断。 感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。
而人工智能设计的主观目标之一肯定是不犯错误。
如果人工智能的发展仅是超过人类大脑,应该是可以实现的。但人类智能会搭错线的特点也势必会延续,则超强大的人工智能的某钟错误可能是其无法承担的,并将导致人工智能自身的灭亡。
于是,超人工智能在某个位面中也许曾大量存在并灭绝过。 {:187:}{:187:}{:187:} 自主思考是关键问题。当AI能问出我是谁,从哪里来,到哪里去时,就可以做个合格的高校门卫袅。 以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 dasa 发表于 2016-1-29 18:00
以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...
你好,半仙!{:190:} 只要文章翻译没有解决鬼话连篇问题,就别扯什么人工智能的伟大前景了。 dingzi 发表于 2016-1-29 04:40
感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。
而人工智能设计的主 ...
AI 没说不能犯错。现在早已经是概率判断了。 你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。 冰蚁 发表于 2016-1-29 20:51
AI 没说不能犯错。现在早已经是概率判断了。
谢谢。我再想想。 史老柒 发表于 2016-1-29 02:23
我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。
只不过现在就说人工智能已经和人类 ...
我认为从哲学层面上来说就是不可能的,就像永动机一样。不过现在还没有人在理论上证明必然还是不可能,先存着。 燕庐敕 发表于 2016-1-29 03:19
樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。
这五盘棋也没看到飞刀,打劫这些体现人类急智 ...
至少在理论上,谷歌AlphaGo可以把飞刀和打劫的情况也考虑进去,这就是穷举法的威力了,通吃! dingzi 发表于 2016-1-29 03:40
感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。
而人工智能设计的主 ...
犯错误是肯定的,赵括不就犯错误了嘛,还有前赴后继的贪官。但正如你说的,对物种来说,能够从错误中学习,适应,所以能够承受错误的结果。人工智能的设计目标是不犯错误,但这与人类思维没有原则差别,人类行为在主观上也不是想犯错误。 dasa 发表于 2016-1-29 04:00
以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...
现在还找得到吗?贴出来看看? 冰蚁 发表于 2016-1-29 06:54
你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。
同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。” 晨枫 发表于 2016-1-29 09:43
同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。” ...
永动机是物理定律给限死了。AI 有什么物理上的限制? 冰蚁 发表于 2016-1-29 08:48
永动机是物理定律给限死了。AI 有什么物理上的限制?
这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量守恒、物质守恒都是物理定律,但给你来一个能量物质转换,定律哪去了? 晨枫 发表于 2016-1-29 09:51
这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量 ...
大哥,你在说啥呢?能量物质转换什么时候成哲学层面的东西了?