爱吱声

标题: 金观涛:反思“人工智能革命” [打印本页]

作者: 晨枫    时间: 2018-3-10 03:56
标题: 金观涛:反思“人工智能革命”
本帖最后由 晨枫 于 2018-3-9 18:27 编辑

金观涛在80年代提出中国历史的超稳定性概念。尽管缺乏科学证明,但在当时是很引人注意的一个说法。没想到他现在跑台湾去了,在搞人工智能。个人同意他的观点,现在的深度学习或者其他人工智能方法都是基于某种“条件反射”式的训练,还谈不上智能。但他说的比我好,人家到底是专家。

=========================

柯洁和AlphaGo的对决,再次掀起人工智能的讨论。伴随大数据时代的来临,互联网、人工智能、虚拟现实互相融合进而有可能重塑社会,特别是人工智能的蓬勃发展,似乎正在颠覆人类社会现有的组织、生产和生活形态。
本文力图从人类智能和社会长时段发展的视角,审视当下这场人工智能革命的实质,及其对现代社会的冲击。进一步来说,今天有必要在认识论层面上,理解“什么是人类智能”,重新界定人类智能的进步与社会形成、演变的关系。当前对这些问题的认识空前混乱,恰恰反映出科学被技术异化和人文精神的丧失。

一场退回到原点的革命
当前正在发生的这场人工智能革命,实质是一场“退回到原点的运动”,由此所引发的讨论,在某种意义上也是对人类“智能”认识的大倒退。所有这一切都和人文精神的沦丧有关,特别是对人工智能的发展历史的忽略。
其实,早在“人工智能”这一观念出现以前,AlphaGo的工作原理已经被数学家和生理学家发现了。1948年,美国应用数学家诺伯特·维纳提出了“控制论”,促使智能研究的行为主义大转向。与今日人工智能研究直接相关的,是当时的自动机理论,麦克卡洛和匹茨的神经网络模型就是这类自动机之一,其被视作人工智能研究的连接主义学派(其对智能的认识也是行为主义的)的开创者。神经网络模型的基本思想极为简单——大脑神经元的工作原理和电脑工程师所说的逻辑门一样,一个CPU就是一个逻辑门的集合体。①在此基础上可以得到神经元的计算模型:系统的输入为I1,I2,…,IN,接受这些输入的神经元输出用如下法则规定:将这些信号经过加权(W1,W2,…,WN),如果其强度超过了一定的阈值(T),则该神经元就会发放一个信号y给其他神经元或者直接输出到外界。②这样,阈值的改变意味着输入和输出关系的变化。当阈值的改变由输出引起时,我们可以说这部自动机在“学习”。
简言之,复杂的智能行为被简化成机器对外界刺激的反应和反馈。低层次的反馈是达到目的的行动;高层次的反馈,因存在代表网络连接方式之参数随输出结果变化而不断地调整,其可以解释神经网络结构和相应行为模式的变化,也就是学习机制。
作为神经网络自动机的AlphaGo,其工作原理早已一清二楚,在今天没有新的内容。20世纪40~50年代,因电脑刚刚出现,加上数据量的限制,AlphaGo不可能被制造出来。近年来,伴随计算机硬件的发展,以及海量数据的积累,使得神经网络自动机的研究和制造突破了物质和技术条件的限制,这就是今天的人工智能“革命”。

仿生学和AlphaGo
既然早在20世纪40~50年代,AlphaGo的工作原理已得到清晰认知,为什么当时神经网络自动机的功能没有被冠以人工智能之名呢?因为神经网络模型对应的是生物本能,而不是人类智能。
举个例子。1959年,麦克卡洛、匹茨与美国认知心理学家杰罗姆·莱特文等合作完成了一篇论文——《蛙眼告诉蛙脑什么》。他们发现,蛙眼能看到的是相对于背景运动着并具有特定形态的物体,而对背景视而不见。如一只昆虫或者天敌的“影子”只要从眼前掠过,青蛙会立即做出反应:扑向食物或者逃进水中。麦克卡洛等人用一个神经网络的数学模型来解释青蛙看到了什么。蛙眼神经网络的功能是青蛙的本能,不能被视为智能。但是从神经网络来讲,它和AlphaGo没有区别。正因如此,当时神经网络自动机的研究对应的是仿生学。
生物神经网络的本能源于遗传,而AlphaGo的能力是通过学习获得的,两者似乎不可同日而语。青蛙对运动物体的反应快过人,狗的嗅觉是人不可能有的。这都是自古就广为人知的事实,从来没有人会认为它们能超过人类,因为人具有智能,生物本能不是智能。智能是一种学习能力,这正是AlphaGo引起广泛注意的原因。其实,上述疑问之所以产生,是出于对智能和学习关系的混淆。生物的本能亦是通过“学习”获得的,只是不被称为学习罢了。
什么是深度学习?其本质是神经网络结构(规定神经元联接之阈值)因网络功能而改变,它与生物本能因自然选择而形成的过程相同。AlphaGo通过人喂给它的大数据或下棋的胜负来修改网络结构,青蛙则通过适者生存进化出对运动物体做出迅速反应的神经网络,从结果规定网络结构这一点上看,两者一模一样。换言之,今日所谓系统的深度学习,其理论基础是行为主义和连接主义。学习机制为“自下而上”的选择路径,这只是生物学意义上“自然选择”导致物种形成的过程。只是生物界不需要某一物种以下围棋来生存,故自然选择这一“深度学习机制”没有创造出人所不能匹敌的围棋高手。
任何一种达到目的的过程和学习都需要不同层次的反馈,但这些高层次的反馈绝不等同于智能。其实,神经网络自动机在60年前并未被视作有智能的,人工智能研究的出现正是立足于对智能和本能的区分。

深度学习的基础是神经网络研究
如何定义“智能”?长期以来,关于人类智能的思考,基本上是思辨性的。人们从自明的意识出发,通过内省来认识“记忆”、“学习”甚至是自我的形态。行为主义开创了用行为模式来定义智能的全新思路。举个例子,一只狗被汽车撞了,下次见了汽车就会害怕,通常人们是用狗有记忆来说明这一点的(心理学称之为生物对外界刺激的敏感化);行为主义认为,狗有记忆等价于其行为模式改变。因为行为模式是可以通过观察来研究的,甚至可以定量地加以测量,故行为主义开启了心理学科学化、定量化的转向。③如前所说,“控制论”的出现使得学习所依靠的反馈机制被发现,它促使智能研究的行为主义大转向。实际上,用图林实验判别机器会不会思考,其基础也是智能的行为主义定义。毫无疑问,这是智能研究的一大进步。借用维纳唯一的学生阿尔贝勃的说法来概括:这是在智能甚至意识解释中赶走鬼魂的工作。但是,智能的行为主义定义正确吗?
就记忆本身而言,AlphaGo通过人喂给它的大数据或下棋的胜负得到的记忆,只是智能所具有的各种记忆中的一种,即最初等的“默会知识”。心理学研究早就指出:记忆分“陈述性记忆”和“非陈述性记忆”。默会知识是非陈述性记忆,比如骑自行车、游泳等,人们可以通过实践(反馈学习)来获得,但却不能用语言来描述它,甚至主体都不知道自己“为何知道”。另一种是陈述性的,也就是人类能够以符号系统予以表述的知识,其可以被传递、重构、遗忘甚至歪曲。行为主义和连接主义对智能的认识很大程度上只停留在其非陈述性的一面。然而,如果没有陈述性记忆,知识不能经理性加工、传递,亦不能社会化。也就是说,仅仅用非陈述性记忆是无法理解最简单的智能的。事实上,20世纪50年代末,心理学的行为主义学派受到广泛地批评,控制论研究的第二阶段开始了。智能有了更为深入也较为准确的定义,人工智能的研究从此起步。在此意义上,今日忽略对行为主义的批评、回到控制论刚兴起时状态的“人工智能革命”,是某种对智能认识的倒退。

什么是“智能”?
什么是陈述性记忆?这是主体使用符号来表达对象及形成的记忆,它比行为主义更接近智能之本质,这就进入到智能研究的另一个学派——符号主义。
艾什比是早期控制论的另一位代表人物,他对智能研究最大的贡献是,第一次给出了“智能”的较准确的定义。什么是智力?艾什比认为智力是进行正确(合适)选择的能力,选择能力的放大即为智力的放大,整个智能行为包含着符号(一种特殊的信息)之选择、编码、传输和解码,以及上述过程的自我叠代(和反馈相对应)。④符号(信息)选择的过程一旦实现自动化,可以说是有智能的。这就是符号主义学派创始人西蒙和纽厄尔所提出的“物理符号系统假说”(PSSH,Physical Symbol System Hypothesis)。它可以概括如下:“任一物理符号系统如果是有智能的,则必能执行对符号的输入、输出、存储、复制、条件转移和建立符号结构这样6种操作。”⑤这一自动化的符号选择则是“模仿数理科学的发展方式,将知识系统地整理成公理体系。这种方法将数学严格公理化,从公理出发,由逻辑推理得到引理、定理、推论。广义而言,将数学发现整理成一系列的逻辑代数运算,将直觉洞察替代为机械运算”。⑥
1956年夏天,数十名来自数学、心理学、神经学、电脑科学与电气工程等各种领域的学者,聚集在位于美国新罕布什尔州汉诺威市的达特茅斯学院,讨论如何用电脑的符号运算类比人的智慧,并根据会议发起人之一的麦卡锡的建议,正式把这一学科领域命名为“人工智能”。符号主义学派的创始人西蒙和纽厄尔参加了这场具有历史意义的会议,而且他们带到会议上的“逻辑理论家”是当时唯一可以工作的人工智能软体,引起了与会代表的极大兴趣与关注。因此,西蒙、纽厄尔以及达特茅斯会议的发起人麦卡锡和明斯基被公认为人工智能的奠基人,被称为“人工智能之父”。
用符号运算类比人的智慧,比神经网络自动机更为高级,其形成的以及处理的符号系统,更接近由理性学习得到的陈述性记忆。但为什么随着电脑运算的进步和大数据的出现,这一对智能更准确定义的领域中没有发生革命?反而是在神经网络自动机的领域中出现了突破呢?关键在于,西蒙和纽厄尔在艾什比的基础上,虽然将人们对“智能”的理解向前推进了一大步,但仍然没有把握人类智能。人类智能不同于生物本能之处在于,人不仅具备选择的能力,还具备创造符号以及利用符号系统把握世界、并赋予世界意义的能力。
在数学符号系统的运行规则背后,起码还存在如下四个层面,它们才涉及智能的本质。第一,主体是自由的,可以给出符号并用符号系统指涉对象。语言就是这样的符号系统;第二,人用语言传递知识,组织社会,产生社会行动。这一切会反过来使主体意识复杂化,社会意识由此起源;第三,人会意识到自己有自由意志,让意志指向某种符号系统,创造一个应然世界;第四,应然世界的演变会进一步放大主体的自由,以创造出更为复杂的符号系统。数学只是人创造出来的众多符号系统中最不可思议的一种,数学真实具有和经验世界不同的真实性标准。
而人工智能的符号主义学派,其所着眼的智能只是第四个层面上的一小点(即数学推理)。当智能之冰山主体(即上述四个层面)还在水下,仅仅看到冰山之一角,我们能把握智能吗?当然不能!换言之,虽然对智能的符号主义认识比神经网络自动机深入得多,但仍然是瞎子摸象。用电脑科技和大数据实现的,只能是那些完全搞清楚的东西。今日人工智能讨论的巨大盲点在于,很多人把生物的本能当作人类智能。

智能研究中不可化约的两类变量
近年来,随着电脑技术的突飞猛进和大数据时代的到来,对人工智能的符号主义研究亦取得长足进步。20世纪70年代,地图四色问题在电脑的参与下得到证明,应该被视为人工智能研究所取得的第一个成果。四色问题证明之难点是数学家必须处理1700多种不同类型的基本图,在某种意义上超出了人处理无规则基本图的能力,必须借助运算机放大人的判断(选择)能力。此外,平面几何命题的机器证明当然也可以作为人工智能的成果。这些案例中,电脑只是在做人指派给它的工作,整个证明和解决问题的方案都由人给出,人机互动共同达到目标。它不像AlphaGo那样自动学习、自行给出表面上具有人类智能才能得到的方案。
另一类具有代表性的例子是近年来数位人文研究的兴起。在观念史研究中,为了揭示历史上普遍观念的变化,必须对表达普遍观念的关键词进行统计分析。理解关键词的意义、将其放到历史语境中认识过去曾经盛行过的普遍观念,以及历史学家在心中重演普遍观念和社会组织的互动,上述每一步都涉及上述智能定义的四个方面,这当然是电脑无法做到的,其必须依靠具有主体性(能理解他人智力)的人,也就是人文学者,但是建立文本数据库,从数据库中提取不同年代代表普遍观念的关键词,对其进行统计、分类,特别是找到关键词在文本中形成的关系网络,这些都离不开电脑和处理符号系统的人工智能方法。当所有历史文献都被输入电脑,成为历史学家拥有的大数据时,人文研究必定面临一个转折点:如果再不利用人工智能,人文学者将不能处理大数据中所包含的海量数据,以发现历史真实。这难道不是大数据时代带来的人工智能革命的一部分吗?
举一个我们研究工作中亲身经历的例子。20年前,我与青峰在香港中文大学工作时,开始建立数据库并用关键词的词频统计分析来研究中国现当代思想的形成,其中“主义”的出现和成熟是当代意识形态取代传统儒家思想的重要指标。1890年至1930年中国出现过多少种“主义”?其种类和频度怎样变化?我们可以从数据库中提出有关“主义”的所有例句,再将每一个句子放到相应文本中做意义分析,找出其所属的类型,然后统计新的主义在每年中出现的次数,看其如何转化,但由于数据庞大,多达5万条,这就大大超出个别人文学者的研究能力,单凭人文研究者很难解决这一问题。2008年,我到台湾政治大学任教,我们建立了和资讯科学家合作的数位人文研究团队,由一个人文硕士和IT硕士的合作,很快找到了统计分析方法,原来近现代中国共出现过1680多种“主义”。直到20世纪20年代,每年都有几十种新的主义被提出。⑦当时我和青峰就对学生讲,当人文学者遇到仅凭个人的能力没法解决或无法从总体上把握的问题时,可以借助电脑技术来解决。这就是当前方兴未艾的“数位人文学”或称“数字人文学”。

智能研究伴随着对人类意识的探索
但必须指出,在数位人文研究中,存在两类不可缺少但不能互相化约的变量,一类是人文的,另一类是引进电脑和人工智能技术加以处理的。无论人工智能取得多大突破,在人文研究中,电脑技术都是人文学者的辅助工具,不可能替代研究者对关键词的意义分析以及在心中重演普遍观念和社会组织如何互动,使这项研究呈现出人文研究的主题。至今为止,人工智能的发展都没有可能涉及上述人类智能的四个基本层面。而人文学者的研究重心正是人类智能规定的东西,立足于这四个层面之外的人工智能,只能充当助手而已。因此,数位人文研究的核心在人文,所有科技手段的应用都必须围绕人文研究的需要来展开。
这一原则同样可运用到人类智能研究上,也就是说,我们用实验方法研究人的大脑神经网络的结构、认识大脑的各种功能以至于破解意识之谜时,都存在类似于数位人文研究中两类不可化约的变量。一类是因果性(互为因果的网络)的,即可以用神经网络自动机(今日人工智能方法)加以分析(或模拟)的,另一类是内省性的,它类似于人文研究中需要用研究者的智能去理解的内容。对人类智能的深入认识必须同时运用这两类变量,将其投射到用神经网络自动机(即目前所谓的人工智能)的研究上,可以直接得到的推论是,AlphaGo无论怎样通过深度学习进化都不会具有人类智能。
我在《关于意识的哲学思考》一文中,指出意识的解释必须将行为主义方法和内省方法结合起来。如果没有行为主义模型,该研究不能通过实验来证明。但意识决不是仅仅靠输入-输出的因果性模式能把握的,故必须把因果模型和内省变量结合起来。在此意义上,必须意识到意识的解释不能排除意识。正因如此,在人类智能研究中,必须发展出一种将科学与哲学结合在一起的新方法。我称之为意识解释的递归方案。
它可以简述如下:在意识(人类智能)的研究中,每一次都需要涉及两批不同性质的变量(参数)。一批是行为主义的变量(参数),我们记为B集合中的元素,它是可以用实验测量并用来建构科学模型的。另一批是只有通过人的内省才能理解的变量(参数),我们记为C集合。在每一次解释中,必须用B集,因为只有这些参数形成的关系可以用实验证明;但单纯用B集合中的元素是不够的,我们必须附加C集合中的元素;附加之所以可能,这是因为我们有意识,可以用意识理解意识。事实上,正恰恰是基于可理解性,构成的整体模型才是合理的(虽然不是每一个细节都可以用实验检验)。
表面上看,因为解释中包含因素C,对意识的科学解释仍没有最后达成。但我认为,只要采用一种类似定义递归函数的方法,可以将解释中C类因素不断化约,使其为B集合中的元素和更原初的意识因素之组合。即随着每一次解释向前推进一步,研究者必须注意采用C集合中不同的元素(避免循环论证),并去发现更为基本的元素。我们可以期待内省的意识因素越来越少。也就是说,只要意识解释的递归方案不断顺利展开。意识之谜或许在有一天可以解开。
我在《关于意识的哲学思考》一文中还提出,伴随对意识研究的深入,实验测量与人文思辨的界限会越来越模糊。但是这两类变量仍是不可以化约的,其根本原因是人有自由意志,即人的主体性。它不可能被还原为因果性。⑧

被忽略的内核:主体的自由
如果我们承认人是动物进化来的(这一点似乎毋庸置疑),既然AlphaGo这样的智能只相当于动物本能,为什么不能想象如同物种演化那样,具有生物本能的神经网络在学习过程中突然涌现出人类智能呢?这正是当前人工智能讨论中另一个经常使人们进入误区的观点。
确实,能否使用符号是人和动物的本质区别。早在19世纪,德国哲学家恩斯特·卡西勒指出人是会使用符号的动物,人的“智能”可以更准确地定义为创造符号及其使用规则,并自由使用符号来与同类交流的能力。这一定义是当前科学界的共识。前面我在论述人类智能四个基本层面时,每一个层面都涉及创造和使用符号。正因如此,从动物向智人的飞跃亦被简化为发明符号和使用符号,它是用系统演化中的“涌现”来说明的。
最近有十分走红的《人类简史》正是这样概括智能和社会加速进步的机制:“智人主要是一种社会性的动物,社会合作是我们得以生存和繁衍的关键。”“只有智人能够表达关于从来没有看过、碰过、耳闻过的事物,而且讲得煞有其事”,“传说、神话、神以及宗教也应运而生”;而“通过文字创造出想象的现实,就能让大批互不相识的人有效合作,而且效果还不只如此。正由于大规模的人类合作是以虚构的故事作为基础,只要改变所讲的故事,就能改变人类合作的方式”。这使得“智人就能依据不断变化的需求迅速调整行为。这等于开启了一条采用‘文化演化’的快速道路,而不再停留在‘基因演化’这条总是堵车的道路上。走上这条快速道路之后,智人合作的能力一日千里,很快就远远甩掉了其他所有人类和动物物种”。⑨
该书勾勒出人类使用符号对社会形成的意义,以及文化如何加速人类智能的进化,这无疑是正确的。但《人类简史》却没有揭示人创造符号、使用符号沟通、建立社会,以及文化演变背后起关键作用的内核,容易使人忽略人类智能和社会之间的关系,从而导致对智能“涌现”和加速进步的错误概括:这些能力似乎可以仅仅从神经网络自动机的学习过程中自行产生出来。

人类进化示意图
具体而言,第一,创造和使用符号需要一种仅仅通过反馈学习的神经网络自动机不可能具有的能力,这就是主体的自由。两台AlphaGo可以互相沟通,或许人不知道它们在讲什么,但是它们有“对象”意识吗?这里的关键是,什么是用符号指涉对象?其前提是符号和对象关系的任意性,因为用符号指涉对象,只是主体间的约定。对同一事物,不同语言进行表达的词汇可以完全不一样。《人类简史》一书只从“讲故事”的角度来理解符号使用与人类社会的发展,而没有意识到主体的自由是语言发明的前提。如果没有自由的主体,人只是对外来刺激做出反应,并通过反应效果的反馈来改变神经网络结构的自动机,根本不会发明符号并用它来表达对象。什么是主体?什么是主体的自由?虽然哲学家一直在思考,但至今对其认识不甚明了。近年来,用DNA考古追溯人类起源,已搞清智人起源于20万年~30万年以前,即一种会使用语言、具有与现代人相同心智的人已经存在,从此,人类将自己和动物界完全区别开。确定无疑的是,在使用语言的背后正是主体的出现和主体的自由,但对于推动这一巨变的机制,可以说是一无所知。
第二,当人通过语言组织成社会后,自我意识开始复杂化。在这一过程中会发生突变,这就是人可以进一步意识到自己(主体)是自由的。“人是自由的”乃是创造符号之前提,而“人知道主体是自由的”是一种二阶思维,即对自由的自我意识。这是主体性又一巨大进步,它通常被称为人具有自由意志。今天经常看到一些研究,认为自由意志只是一种假象,人的行为是因果性的(被决定的)。这些研究之所以陷入误区而不自知,就是在智能研究中忽略内省变量(或以为它可以化约为行为主义变量)。其实,每一个人只要扪心自问,都知道自己是有自由意志的,存在对“善”、“恶”、“对”、“错”进行选择的自由。如果人没有自由意志,道德对人便毫无意义,高度复杂的社会组织以及可继承性的文明不可能存在。人在何种条件下意识到自己(主体)是自由的?对于这一革命性变化之原因,20世纪至今的人文研究已获得了巨大进展,这就是超越突破的发生和轴心文明的形成。也就是说,人的自由意志不仅是社会意识的属性,还是对社会意识反思的产物。
我在《轴心文明和现代社会》一书中将超越突破定义为人从社会中走出来,寻找不依赖于社会的终极价值,让其来组织社会。从此以后,人类社会告别古文明,进入一种有不死文化传统可继承的社会。高级宗教和道德起源了,不死的文化价值系统得以产生,成为智能进一步进化的载体。⑩可惜的是,这种基于人文和历史的研究,虽对于揭示智能的本质不可缺少,但因人文精神一直处于认知科学和人工智能研究之外,不被科学家理解。智力加速发展的机制被简单归为语言和古代社会本身,而不知道轴心文明以前的古文明的文化常在社会演化中灭绝。
智力进步第三种更重要的力量,来自于人终于认识到自己应该是自由的。这是什么意思?人知道自己是自由的,并不意味着个人自主成为社会组织原则。在传统社会,自主的个体生活在终极关怀或道德价值规定的有机体内,他们的合作和创造力的发挥一直受到有机体“容量”的限制。只有人认识到自己应该是自由的,自由的意义才能超越其他价值,成为“应然社会”的组织原则。现代科学的诞生是智能最伟大的革命,它和现代市场经济的出现同步,其背后是一种可以容纳自主个人无限制发挥自己创造性,并和其他主体合作的社会组织方式。这一切可以归为“自主性成为应然社会的组织原则”。人工智能的符号主义学派高度重视数学公理化思维模式,但他们没有想到,这种思维模式只有在现代社会中才能成熟。也就是说,从人类智能摆脱了种种天然桎梏并开始突飞猛进,到人工智能研究有可能出现,都是基于现代社会的起源并日益成为人类文明的组织框架。
一旦理解智能(社会性)进化存在着上述三种推动力量,人工智能革命对现代社会带来的冲击也就一清二楚了。或许有一天神经网络自动机在学习中会发生不可思议的突变:涌现出主体的自由并发展出它们的语言,和其他神经网络自动机建立社会。但它们取代人类社会同样要经历类似于人类社会演变——从部落社会到古文明、轴心文明再到现代社会的产生。也许该过程正在宇宙某处发生,但在外星文明被发现前,这一切和人工智能冲击当代社会没有什么关系。
既然如此,我们又如何看待人工智能对现代社会生活的巨大影响呢?就其本身而言,它和历史上有过的新科技带来的生活方式和生产方式大变革相似,并不会改变现代社会的基本结构。20世纪初,英国文学大师福斯特在《大机器停转之日》中描绘了如下场景:有台大机器照顾着人类的衣食住行,安排着人类的一举一动。但有一天,这个精心设计的、全知全能的、无所不在的大机器停转了,社会很快陷入崩溃状态。其实,这本是对20世纪极权社会的想象。但20世纪的历史和这一预言相反,现代社会的危机如法西斯主义的兴起与其说是新科技和新生产方式带来,还不如说是民族主义和现代民族国家本身存在着缺陷。
今日对人工智能冲击的忧虑,重要的不是其本身,而是现代社会包容一日千里科技革命的能力急骤地退步,其背后是现代社会立足的两大支柱本身受到科技革命的侵蚀。现代性的前提是科学理性与人文信仰的二分,当科学理性等同于技术,意味着它已异化。“上帝已死”和道德被等同于追求利益,表明终极关怀开始退出社会。如何安顿个人生命的终极意义?一个由没有道德、信仰的人组成的社会是否可能容纳科技和经济的进一步发展?这都是人类文明正面临的巨大挑战。
也许,现代社会的衰落在短期内不可避免,但人类智能长时期后退是不可能的。青峰在《让科学的光芒照亮自己》的修订版序言中,曾提及阿西莫夫的著名科幻系列小说《基地》。这本书的主题是银河系文明面临不可避免的衰落之时,为了缩短黑暗过渡期、保留今后文明复兴的种子,人类在星系遥远的边陲分别建立科学和人文两个基地。阿西莫夫并没有谈及文明衰落的原因,但青峰从他把科学和人文作为两个互不往来的基地的设想中,猜想阿西莫夫很可能认为文明衰落是科技过分发达被专业化异化和人文精神衰落引起的。(11)不管银河帝国的衰落的原因是不是科学的异化和人文精神的丧失,现代社会的重建只能依靠科学和人文两大支柱。
注释:
①杰夫·霍金斯、桑德拉·布拉克斯莉:《人工智能的未来》,贺俊杰、李若子、杨倩译,陕西科学技术出版社2006年版,第9页。
②集智俱乐部:《科学的极致:漫谈人工智能》,人民邮电出版社2015年版,第一章。
③⑧金观涛:《关于意识的哲学思考》,载《科学文化评论》2009年第3期。
④详见W.R.艾什比:《控制论导论》,张理京译,科学出版社1965年版,第281~282页;W.R.Ashby,Design for an Intelligence-Amplifier,In Claude E.Shannon and J.McCarthy ed.,Automata Studies,Princeton University Press,1956。
⑤《赫伯特·西蒙和艾伦·纽厄尔——人工智能符号主义学派的创始人》,载科学网,http://blog.sciencenet.cn/blog-39714-253943.html.
⑥《机械蛮力和人类智能:符号主义和联接主义的魔咒》,载雷锋网,https://www.leiphone.com/news/201509/kON77d06sXwWYY1k.html.
⑦詹荃亦、王乃昕:《“主义”的数位人文研究》,载项洁等主编:《数位人文在历史学研究的应用》,台湾大学出版中心2011年版,第219~245页。
⑨尤瓦尔·赫拉利:《人类简史:从动物到上帝》,林俊宏译,中信出版社2014年版。
⑩金观涛:《轴心文明和现代社会》,法律出版社即将出版。
(11)刘青峰:《让科学的光芒照亮自己:近代科学为什么没有在中国产生》,新星出版社2006年版。

作者: 晨枫    时间: 2018-3-10 03:59
对于金观涛的观点,也有一片反驳文,值得一起读。

======================

陈自富:我们对“智能”的认识退步了吗?——与金观涛先生商榷

【导读】2017年8月刊《文化纵横》登载了金观涛先生的《 反思“人工智能革命”》一文,本文系对这篇文章的评论和回应。作者指出,金先生在文中表达的观点非常具有启发性,然而,金文的论据——当代人工智能研究中用神经网络自动机代替符号主义,从而忽视了人类智能的符号形式化能力,存在着重大的瑕疵。回顾人工智能研究的历史可见,现在我们对“智能”的认识不仅没有退步,反而可能比历史上更加丰富和完整。
最近,金观涛先生在《文化纵横》杂志2017年8月刊发《 反思“人工智能革命”》一文,对AlphaGo以来人工智能革命的最新发展进行了反思,提出在这场革命中,研究者对人类智能及其与社会的关系认识混乱,反映了当代人文精神逐步丧失、科学被技术异化的局面,从而导致现代社会包容科技革命的能力退步。金先生在文中表达了这样一种观点:我们应从更广泛的社会和文明进化视角,及人类独特的认知能力出发,重新审视对“智能”的认识,保持人类社会进步的内在动力,避免人类在面临人工智能挑战时陷入智能退化和长期衰退。
金观涛先生在文中的结论基本是今天面对信息文明高度繁荣的学者们的共识,科学与人文的隔阂甚至对立,对人类科技进步中社会性因素的忽视,导致了技术理性的张扬和人文精神的退化,是现代社会面临的一个重大问题,但金先生分析这个问题的视角和背景却独树一帜:即从当前最流行的人工智能发展浪潮中剖析,从而得出因为对人类智能的理性认识不够全面,导致(或者至少是加剧)当代社会面对人工智能革命时可能产生的种种忧虑的结论。
但是,金先生这个视角的根本论据,从人工智能发展历史来看似乎不成立。金文的论证起点是认为当前人工智能革命是一场“退回到原点的运动”,过去的研究对人类智能的理性认识出现了重大倒退,从而导致对智能发展中社会和人文因素的忽视。由此金先生给出了一些非常强的表述,例如: “神经网络自动机的研究和制造突破了物质和技术条件的限制,这就是今天的人工智能'革命', 既然早在20世纪40-50年代,AlphaGo的工作原理已得到清晰认知,为什么当时神经网络自动机的功能没有被冠以人工智能之名呢?”[1]

金先生对当代人工智能研究中关于“智能”观点的批评大致可以总结为:
(1)神经网络自动机就是当前人工智能的革命,但它反映的是生物本能而不是人类智能,从控制论的角度来看,就是将人类复杂的智能行为简化为机器对外界刺激的反应和反馈,从而还原到心理学上的行为主义解释。
(2)当代人工智能“革命”的核心是神经网络技术,这种复兴是对人工智能历史上符号主义的反叛和倒退。
(3)即使是历史上人工智能理论中的符号主义,也没有准确地反映人类智能,而只是反映了人类智能中一部分基于符号的形式化能力。[2]
因此,金先生所指出的倒退,是指当代人工智能研究中用神经网络自动机代替符号主义,从而忽视了人类智能的符号形式化能力,但是人工智能的发展历史和现状表明,“反思'人工智能革命'”中的这个论据,存在着重大的瑕疵。
我们首先分析一下当前人工智能研究共同体对“智能”的最新认识,例如微软亚洲研究院院长洪小文指出智能机器的能力分为以下四个级别:
(1)功能(Capability):是日常工具的价值点,例如车轮、锤子的功能用途等;
(2)智能(Intelligence):包括记忆力、计算力等,可以采用定量方法来测试;
(3)智力(Intellect):包括人类独有的判断力、创造力等;
(4)智慧(Wisdom):指来源于社会、文化和历史沉淀的经验所形成的综合性能力。
洪小文同时认为迄今所有的人工智能成就都只达到了功能(Capability)和智能(Intelligence)级别,其未来的目标是向智力和智慧迈进。[3]刘锋在《机器人与谷歌大脑--人工智能的6个智能分级》一文中,也将人工智能从0级到5级分为6个智能等级,其中人类是第5级智能系统的典型范例,具备创新、创造和知识生产或消费的能力。[4]
因此,从研究共同体的最新观点来看,智力和智慧、第5级人工智能与金先生在文中指出的人类智能与自由意志、语言、社会文化高度关联的观点是吻合的,因而很难得出当前人工智能研究中对“智能”的理性认识更为退步的结论。
从历史来看,人工智能的研究纲领呈现出一幅多元论场景,虽然具有共同的目标:建造可以执行“人类能完成的任务”的智能机器,但各个学派对于什么是人类智能并无一个明确的定义,甚至由于不同的研究传统,在上世纪50-60年代中后期,关于“人工智能”的命名都存在差异:英国受传统控制论影响较大,在1956年达特茅斯会议之前,习惯称“机器智能”,而卡内基理工学院的赫尔伯特·西蒙和艾伦·纽厄尔从信息加工的视角出发,则用“复杂信息处理”(CIP: Complex Information Processing)这个名词,至于达特茅斯会议上约翰·麦卡锡发明的“人工智能”这个词,主要是想表达与抽象自动机研究的不同点。总之,人工智能研究历史从一开始就未必存在金先生文中呈现的场景:研究者对人类智能具有符号主义立场的统一观点。[5]
早期人工智能研究的实际情况是人们并未能严格对人类智能和机器智能做出明确区分,而是从信息加工、对环境复杂性的反应、逻辑或语言能力等多个不同的维度来刻画尚处于萌芽状态的人工智能。“人工智能”这个名词的基本统一以及大学中计算机系的建立,差不多要到60年代中后期才完成,而且当时联结主义和符号主义的研究也处在竞争状态,符号主义占据强势地位的局面,是在1969年马文·明斯基和西摩尔·派珀特出版《感知机》一书,对康奈尔大学心理学家罗森布拉特的感知机研究加以批判后才出现的。
80年代派珀特回顾此事时,将早期人工智能时期的神经网络和符号人工智能比喻为控制论的两个女儿,她们刚开始都同样成功,都有来自其他知识领域的追求者,但60年代之后,DARPA老爷的出现改变了这一切,神经网络被杀死了,这同时也从侧面表明对智能的认识受到了外部社会力量的干扰。[6]
其实在人工智能研究史上,智能研究的理论基础一直受到高度重视,并且也有过多次重大的争议和讨论。例如,1987年在麻省理工学院人工智能实验室、国家科学基金会、美国人工智能学会的支持下,麻省理工学院召开了一次关于人工智能理论基础的研讨会,与会的学者被要求提交一篇表明他们理论立场和原则的论文,在此基础上,《人工智能》杂志将会议成果通过1991年第47卷(第1期到第3期的合集)的《人工智能的基础》专辑出版。在这本专辑中,对当时人工智能不同研究纲领的核心争论归结为以下5个假设:
(1)人工智能的核心是概念化的研究,应从知识级别水平上开始;
(2) 认知可以在没有解决符号接地问题的情况下作为非具身的过程来研究,即可从感知和动作中分离出来进行抽象研究(注:符号接地问题指符号如何获得现实世界语义的问题);
(3)认知可以很好地在命题项中描述,即认知动力学是语言驱动的,类似于自然语言(如英语)的一个逻辑-数学版本;
(4)我们可以将认知从学习中分离进行研究,即认知动力学和认知所需的知识可以与概念学习、心理发展以及进化变异分开研究;
(5)所有的认知存在一个统一架构。
而不同研究纲领对于这5个假设具有如下不同的立场:[7](见下表)

与金先生在其文中描述不同的是,当时人工智能在研究实践中并不是简单存在符号主义和联结主义这种泾渭分明的二元对立。行为主义认为智能是通过行为表现的,肯定人与动物在生物学上的连续性,强调有机体对环境的适应行为,把心理、意识、情感等都归结为行为,实际上把智能视作一个从动物到人类的连续体,而目前人类级别的智能是从与环境的交互中进化而来的。
这种看法如西蒙所表述的:蚂蚁和人类行为的表面复杂性在很大程度上是其所处环境复杂性的反映。[8]至于行为主义在工程上的实现方式,究竟是采取符号或是神经网络的方法,从行为主义学者罗德尼·布鲁克斯的研究来看,并不是那么绝对。[9]金先生在文中将联结主义与心理学中的行为主义等同起来,其实并不是人工智能研究中的真实情况。
由于人工智能具有工程和科学两种不同的维度,或称之为人工智能的工程观和科学观,前者并不以理解人类智能为前提,主要是利用计算机、数据等资源通过算法加工来完成人类实践生活中的任务,后者则需要从人类智能原理出发来实现人工智能,是否以当前冯·诺依曼结构的传统计算机作为工具并不重要。
因此讨论人工智能是否存在AlphaGo之后的神经网络自动机革命,并不是一个严谨的说法。例如当前的类脑计算研究,是放弃传统的冯·诺依曼型计算机,改为从结构上模仿人脑来开发芯片,从而希望从结构仿真中的功能涌现中来产生智能。
对人类智能的认识是科学家当今面临的最大难题之一,在研究过程中由于对科学原理的不了解,不得不在工程上进行简化,即不对智能做任何明确的定义,而是在利用人工智能探索智能行为机制的过程中来逐步了解和解释智能的本性,这是当前研究中的一种重要倾向,这种工程上的智能观有助于消除对智能的哲学蒙昧主义,是任何具有工程和科学双重性质的技术性科学中不得不采取的务实态度,没有这种务实态度,简单地将工程实践和原理在认识论上对立起来,可能会对知识的进步产生不利影响。
虽然现在深度学习在图像识别、语言处理等特定领域取得了比以前更大的成就,但据此认为神经网络就是人工智能唯一的统治性纲领还为时尚早,而且神经网络和符号主义并不是完全对立的。
例如符号主义研究中一个核心的概念是表征,但早在1986年联结主义的“圣经”,即由鲁梅哈特、麦克莱兰主编出版的两卷本论文集《平行分布加工》中,斯摩棱斯基就指出神经网络和表征存在某种关系。[10]明斯基和派珀特在1988年再版《感知机》一书时,仍未改变其对神经网络研究的批判性观点, 他们论证新的神经网络仍然只能处理玩具世界的问题,整个理论结构仍然只是奠基在流沙上,对于规模放大后是否能达到目标还是一个问题。
另外,如果神经网络是整个大脑的模型,那么联结主义和符号主义是不兼容的,如果只是大脑的部分模型,那么两个研究纲领将会是互补的。[11]现在来看,包括符号主义、联结主义乃至行为主义的多种视角,应该都是对人类智能在不同层次的刻画。
人工智能不是理论物理学那样高度成熟和形式化的科学,不具有严密的理论形式,但是其经验性定律及其使用的概念框架、假设也是在特定的历史和文化条件中形成的,具有其自身的形而上学背景。因此这些定律和概念框架与常识知识的实在表述不一致时,往往会带来与经验定律的冲突,但这种冲突可以通过对其定律、理论假设和模型的科学解释,来弥合表达日常经验的常识语言与其定律解释之间的差距,从而推动人工智能学科理论的成熟。
问题是对于经验定律或理论模型的科学解释是依赖于语境和具体实践的,这种语境在解释学的背景下用海德格尔的术语“前结构”来表达,反映了解释者所处的历史、文化和社会背景。金先生就是从传统控制论的背景出发,将当前人工智能和社会的关系,从认识论的角度还原到了错误的概念辨析中,而忽视了人工智能历史的实证研究中,对智能概念具有非常丰富的维度和演化过程。
在这个意义上,金先生文章中作为起点的论据:当前人工智能革命中对“智能”概念的认识是一次重大倒退,似乎与人工智能历史的实际发展相反,从早期人工智能研究中对“智能” 概念的朴素性认识开始,经过长期的争论以及工程实践后,科学家已经对“智能”概念有了更加丰富的认识,不仅意识到社会文化因素对人类智能的重大影响,而且也意识到当前人工智能所面临的重大困难,认为实现人工智能的目标将是一个长期的任务。因此,现在我们对“智能”的认识不仅没有退步,反而可能比历史上更加丰富和完整。
本文并未对金观涛先生在文中阐述的结论持有异议,他在文中表达的观点非常具有启发性,但笔者认为对于如何达到这样的结论,其论证的过程似应基于更加确定的论据和更完整的路径,谨以此小文与金先生商榷,希望能对人们当前所面临的技术理性张扬、人文精神逐步退化的问题有所裨益。
注释:
[1][2] 金观涛:《反思“人工智能革命”》,载《文化纵横》2017年8月刊。
[3] 洪小文:《我们需要什么样的机器人》,载《中国计算机学会通讯》2014年第10期。
[4] 刘锋:《机器人与谷歌大脑--人工智能的6个智能分级》,载《中国计算机学会通讯》2016年第12期。
[5] 陈自富:《研究纲领冲突下的人工智能发展史:解释与选择》,上海交通大学2017年版,第21-31页.
[6] Papert S. One AI or many?// The artificial intelligence debate: false starts, real foundations. MIT Press, 1989,13-14.
[7] Kirsh D., “Foundations of AI: The big issues”, Artificial Intelligence, Vol.47(1991).
[8] 司马贺:《人工科学--复杂性面面观》,武夷山译,上海科技教育出版社2004年版,第48-76页。
[9] 陈自富:《研究纲领冲突下的人工智能发展史:解释与选择》, 上海交通大学2017年版,第44-48页。
[10]  Rumelhart D E, McClelland J L., Parallel Distributed Processing, The MIT Press, 1986, pp.75-78.
[11]  Marvin Minsky, Seymour Papert. Perceptrons: An Introduction to Computational Geometry, MIT Press, 1988, pp. xiv-xv.
(本文原刊于《文化纵横》2018年2月号,原标题:我们对“智能”的认识退步了吗?——与金观涛先生商榷)

作者: indy    时间: 2018-3-10 04:40
有一本金和太太合著的文革十年史。。。原来听说他们已经退休在佛罗里达一个小镇。。。怎么不甘寂寞又出山啦
作者: 晨枫    时间: 2018-3-10 04:55
indy 发表于 2018-3-9 14:40
有一本金和太太合著的文革十年史。。。原来听说他们已经退休在佛罗里达一个小镇。。。怎么不甘寂寞又出山啦 ...

他应该是文革前的老大学生?现在应该70多快80了?
作者: indy    时间: 2018-3-10 06:04
晨枫 发表于 2018-3-10 04:55
他应该是文革前的老大学生?现在应该70多快80了?

baidu: 金观涛,1947年生于浙江义乌,1970年毕业于北京大学化学系,曾在美国宾夕法尼亚大学访问研究。曾任香港中文大学中国文化研究所讲座教授、当代中国文化研究中心主任;现任台湾政治大学讲座教授, 中国美术学院南山讲座教授。


wiki: 金觀濤(1947年-),浙江義烏人,學者,作家與社會評論家[1]。1989年前和與妻子劉青峰發表包括《興盛與危機─論中國封建社會的超穩定結構》等作品、主編《走向未來》叢書,1989年後離開中國前往香港,發起並主編二十一世紀雙月刊,成為知識份子辯論的主要雜誌之一。

1980年代有所謂「青年四大導師」或稱「四大啟蒙導師」,金觀濤和方勵之、溫元凱、李澤厚並列。[2][3][4]1989年2月,金觀濤夫婦聯同北京知識界共33人致函鄧小平,促其釋放魏京生等政治犯,並於八九民運期間公開肯定民運。六四事件後金觀濤被北京市長陳希同點名批判。[5]香港市民支援愛國民主運動聯合會將金觀濤列入1989年中國民運「被點名23名知識分子」。[6]

1989年前
1970年畢業於北京大學化學系,曾在美國賓夕法尼亞大學訪問研究一年。金觀濤原培養訓練為科学家,但於文化大革命時開始對人文及社會科學產生興趣。1970年代末及1980年代初與妻子劉青峰發表許多關於歷史、哲學、及文學的作品,其中最有影響力的是《興盛與危機─論中國封建社會的超穩定結構》(湖南人民出版社1984年4月初版,1992年中文大學出版社增訂版,2011年1月法律出版社重印增訂版)及小說《公开的情书》。[1]

1984年金觀濤和劉青峰主編《走向未來》叢書,設定要讓年輕一代介紹在科學、社會科學、人文藝術與文學的最新發展。在1989年被中國政府列為禁書前,該系列叢書已出版約80本。[1]

1989年後
1989年後金觀濤和劉青峰離開中國大陸前往香港中文大學訪問研究,六四事件後繼續留在香港中文大學任教,發起並主編二十一世紀雙月刊,成為知識份子辯論的主要雜誌之一。[1][7],並曾任中國中央電視台製作的電視紀錄片《河殤》的顧問。

2005年開始出任中國美術學院南山講座教授,在兩岸港台之間講學[8][9]。2008年7月退休後到台灣國立政治大學中國文學系出任教席。
作者: 冰蚁    时间: 2018-3-10 06:06
本帖最后由 冰蚁 于 2018-3-9 17:11 编辑

只能讲这位金老先生对 alpha go的认识是完全错误的。Alpha go 的最新版本是不需要喂棋谱的,只是从棋的规则出发。下出来的棋也颇具创造力,这个是尤其让人惊讶的地方。这个不是简单的一句本能就概括的。和 Alpha go比肩的是德州扑克的突破。比两者都早的是 Waltson。理解人类语言并进行相关搜索。国内的讯飞语音识别也已经很牛。中文语音输入正确率很高,语言之间的翻译也不错。关于所谓陈述性智能突破已经触手可及。Alpha go 如果和 waltson 合体做出一个讲棋教棋的人工智能,并即时回答学生问题,不知这位金老先生又会是个什么说法?
作者: 冰蚁    时间: 2018-3-10 06:06
本帖最后由 冰蚁 于 2018-3-9 17:12 编辑

重复贴,删了。
作者: 燕庐敕    时间: 2018-3-10 08:10
indy 发表于 2018-3-10 04:40
有一本金和太太合著的文革十年史。。。原来听说他们已经退休在佛罗里达一个小镇。。。怎么不甘寂寞又出山啦 ...

俺不知道金观涛也有文革十年史,倒是记得严家其和老婆高皋,写过文革十年史。
作者: indy    时间: 2018-3-10 08:25
燕庐敕 发表于 2018-3-10 08:10
俺不知道金观涛也有文革十年史,倒是记得严家其和老婆高皋,写过文革十年史。 ...

没错还是老燕记得清,我意识到自己记混啦,那两本书原来放在一起两个又都是夫妻伙。。。哎一晃几十年啊



作者: lorry    时间: 2018-3-10 08:57
暴露年龄。
作者: qyangroo    时间: 2018-3-10 10:03
人工智能公认是跨科学,工程和人文学科的跨领域研究,包括数学,计算机,心理学,认知科学等脑科学,并未排斥人文社科类,反而是促进人文学科的发展。
作者: 燕庐敕    时间: 2018-3-10 10:15
indy 发表于 2018-3-10 08:25
没错还是老燕记得清,我意识到自己记混啦,那两本书原来放在一起两个又都是夫妻伙。。。哎一晃几十年啊

...

金观涛的老婆又是哪一位呀?

据我所知,高皋是个护士长,在严家其的书上只是署个名。
作者: indy    时间: 2018-3-10 10:37
燕庐敕 发表于 2018-3-10 10:15
金观涛的老婆又是哪一位呀?

据我所知,高皋是个护士长,在严家其的书上只是署个名。 ...

刘青峰


wiki: 金觀濤(1947年-),浙江義烏人,學者,作家與社會評論家[1]。1989年前和與妻子劉青峰發表包括《興盛與危機─論中國封建社會的超穩定結構》等作品、主編《走向未來》叢書,1989年後離開中國前往香港,發起並主編二十一世紀雙月刊,成為知識份子辯論的主要雜誌之一。

1980年代有所謂「青年四大導師」或稱「四大啟蒙導師」,金觀濤和方勵之、溫元凱、李澤厚並列。[2][3][4]1989年2月,金觀濤夫婦聯同北京知識界共33人致函鄧小平,促其釋放魏京生等政治犯,並於八九民運期間公開肯定民運。六四事件後金觀濤被北京市長陳希同點名批判。[5]香港市民支援愛國民主運動聯合會將金觀濤列入1989年中國民運「被點名23名知識分子」。[6]

1989年前
1970年畢業於北京大學化學系,曾在美國賓夕法尼亞大學訪問研究一年。金觀濤原培養訓練為科学家,但於文化大革命時開始對人文及社會科學產生興趣。1970年代末及1980年代初與妻子劉青峰發表許多關於歷史、哲學、及文學的作品,其中最有影響力的是《興盛與危機─論中國封建社會的超穩定結構》(湖南人民出版社1984年4月初版,1992年中文大學出版社增訂版,2011年1月法律出版社重印增訂版)及小說《公开的情书》。[1]

1984年金觀濤和劉青峰主編《走向未來》叢書,設定要讓年輕一代介紹在科學、社會科學、人文藝術與文學的最新發展。在1989年被中國政府列為禁書前,該系列叢書已出版約80本。[1]

1989年後
1989年後金觀濤和劉青峰離開中國大陸前往香港中文大學訪問研究,六四事件後繼續留在香港中文大學任教,發起並主編二十一世紀雙月刊,成為知識份子辯論的主要雜誌之一。[1][7],並曾任中國中央電視台製作的電視紀錄片《河殤》的顧問。
作者: 燕庐敕    时间: 2018-3-10 11:34
indy 发表于 2018-3-10 10:37
刘青峰

看了半天也没看出刘青峰的业绩。

金观涛的那套丛书,我们正好上大学的时候看到,还真的很受欢迎,大家轮着捧读呢。
作者: 江城如画里    时间: 2018-3-10 15:59
我对金观涛这篇不怎么感冒,怎么说呢,有种科学家面对哲学家的无力感,或者说金观涛这全文就是一种类似于“当科学家们爬上一个又一个的山顶时,总发现佛学大师们早已在那里等着了”的沾沾自喜。
就他观点的批判,我现在最大的困惑是可吐槽的东西太多,竟然不知道从哪里开始。因为金的方法论与科学研究的方法论相差太远,大量的无论述直接论断,都不知道从何处批起。
我就随便摘吧。
“其实,早在“人工智能”这一观念出现以前,AlphaGo的工作原理已经被数学家和生理学家发现了。”
这句对于数学家和生理学家,都会否认三连。不要说AlphaGo这么复杂的结构说不清楚。连目前深度学习的最基础的东西,两层的卷积网络,也没有任何数学家敢吹牛说已经理解了这只有两层网络的原理。更何况AlphaGo这样上百层的玩艺儿。金观涛这话让从业人员听着哭笑不得的原因就是,从业人员现在最大的困惑,就是不知道为什么神经网络能行,以及反传算法在大部分时候能行,这非常让人困惑。从业人员不管是从数学背景来的,还是从生物学背景来的,或者计算机科学背景来的,共同的烦恼,就是训练提交一开始,几天内都不知道会有啥结果,能行的话不知道为什么,不行的话,也不知道为什么。按金观涛理解,1948年我们就应该知道神经网络为啥能用了,这不扯么。
同样,下面说“作为神经网络自动机的AlphaGo,其工作原理早已一清二楚,在今天没有新的内容。”,这更让人苦恼了,基本上大多数企业搞AI的,面对的也就是不到百层的网络,最大的困难就是不知道原理。训练中不收敛,或者效果特别差的时候非常多,有时猜着改个参数,自己以为是往东,实际效果可能去南边了,基本上跟烧香拜佛后梦想成真的概率相当。金大神如果敢说他了解任何一个哪怕是30层网络的原理,知道要调参数时往哪个方向调,全球会有无数的公司花几百万请他来指导的。
事实上,读读当前发表的深度学习和神经网络的论文,说不客气点,90%的论文都是臆造的理由,因为这方法它行,所以它就是合理的,至于为啥合理,因为它可行——典型的循环论证。多数猜测能够前后一致就行了——我见过不少文章前后矛盾的,前面猜测A因素导致效果好,后面就写说因为不是A效果也好——看的人特别伤感,直观感受到了电脑面前写作的作者的悲愤。这不是因为大家都是傻子,而是确实缺少工具,理解神经网络到底是怎么回事。金大神一句话就把整个行业都翻过个来了。
后面,“蛙眼神经网络的功能是青蛙的本能,不能被视为智能。但是从神经网络来讲,它和AlphaGo没有区别。”
好吧,我完全看不出这句的理由,从这句话的逻辑看,我认为金根本就没有真正看过AlphaGo的论文,从他概念里,大概以为AlphaGo是一个确定性的算法,也就是说,每次输入固定的话,结果是确定的,但真的不是,AlphaGo中不光有残差网络之类的,还有MCTC,基于蒙特卡洛算法的,对于统计学有点了解的都应该知道这是个带随机性的算法。也就是说即使棋局完全一样,AlphaGo搜索出来的下一招很可能此局与彼局不同。
后面我看到的是大量的推销自己两口子论文的观点,也同样无法评价。
比如这段:
“我称之为意识解释的递归方案。
它可以简述如下:在意识(人类智能)的研究中,每一次都需要涉及两批不同性质的变量(参数)。一批是行为主义的变量(参数),我们记为B集合中的元素,它是可以用实验测量并用来建构科学模型的。另一批是只有通过人的内省才能理解的变量(参数),我们记为C集合。在每一次解释中,必须用B集,因为只有这些参数形成的关系可以用实验证明;但单纯用B集合中的元素是不够的,我们必须附加C集合中的元素;附加之所以可能,这是因为我们有意识,可以用意识理解意识。事实上,正恰恰是基于可理解性,构成的整体模型才是合理的(虽然不是每一个细节都可以用实验检验)。”
我无法理解这东西的,就是因为集合在数学中是有严格定义的,但是金这段话,完全无法对应到任何数学命题上去,无法不让人怀疑金是借着一个自己都不懂的名词去唬人。我觉得这不是数学家对哲学家苛刻,就前段时间声明证明了ABC猜想的望月新一,本来也是业界名人之一,然而就是使用了含糊不清的定义,像陶哲轩甚至不屑于去读望月新一500多页的论文。数学家对于这种充满着自己认为不证自明含糊不清的文章是非常警惕的。(当然基于望月新一之前的成绩,也许陶会被打脸,但是总之数学家很痛恨哲学家这样瞎扯式的定义命题的方法的。

最后几段,真真的让人感受到那种,佛学大师们早已在那里等着了的沾沾自喜了。无法评价。

总的说,我觉得没多少业内人士批评,多数并不是因为觉得金说中了弱点,而相反,是觉得鸡同鸭讲,不在一频道上的原理。


作者: 江城如画里    时间: 2018-3-10 16:13
再随便评价一下,金说的,关于符号主义和连接主义,这个倒是可以一谈的。确实原来就是有此争议,前者认为可以通过某种形式逻辑最终上升到人工智能,后者则是对于生物体大脑的半仿生。连接主义在60年代被废,后面陈自富文章认为是DARPA一棍子打死,这也过于情绪化。连接主义当时就是明斯基实打实的用数学道理给搞死的。在当时算力不行的情况下,感知机的层次很简单,明斯基从数学上证明了,感知机连表达异或的能力都没有。而彼时正是图灵机与冯诺架构爆发的前夜,广大科研众一看你这破Perception,连最最基础的异或门都搞不定,那还有啥意思呢,自然就散了。说是DARPA打击,这并不合适。当时连接主义还大叫,我可以搞多层网络,其表达能力超过感知机,也能解决异或问题,群众刚一回头,Hinton又说,只是现在运算能力跟不上,大家一听这就一哄而散了。说到底,连接主义当时被搞趴下,正是因为理论和实践上突破都不够,尤其是后来在分类问题上被SVM这个数学上感觉特别优雅的东西压住一头,很长时间都没缓过劲儿来。
在当时符号主义兴盛,也是因为大家觉得连接主义的感知机此路不通,才会聚焦到暂时看不出毛病的符号主义上去。然而时间最能说明一切,搞符号主义的把持了人工智能研究有30多年吧,没有任何突破性的进展(四色定理证明算是顶峰了吧),大家感觉这个居然比连接主义还要坑人。
进了上世纪末后,在诸如语音识别和机器翻译方面,基于符号主义的算法,被基于统计的方法痛击,大家这会儿有点回过味来,原来这种符号主义的东西,真的未必是解决方案。此后进入新世纪后,LeCun,Hinton等人苦熬30年,突然发现,不管是数据量还是算力,多层神经网络都可以开始进行试验了,而这个被称为深度学习的方法,突然显现出巨大的威力来,类似于基于统计模型的算法在机器翻译语音识别之类的领域痛击了基于符号和规则的算法。这才导致大量的人才往有新突破的领域转换。
金现在的问题就是没看出来,广大科研众基于符号主义走了30年没走通,很多人都“苦秦久矣” ,不少人都认为也许是个死胡同。金似乎思维就停留在上世纪80年代符号主义的辉煌中了,没意识到变天的必然性。
作者: 红茶冰    时间: 2018-3-10 20:28
江城如画里 发表于 2018-3-10 15:59
我对金观涛这篇不怎么感冒,怎么说呢,有种科学家面对哲学家的无力感,或者说金观涛这全文就是一种类似于“ ...

老金的文章给人感觉就是算命的给数学家讲解集合论,其效果可以用两个字来形容:装逼~
特仑苏童鞋不是不屑于看新一的论文,用她自己的话说就是:我根本看不懂。这么说吧,能大概明白新一童鞋思路表述的人,这个世界上加起来不到20人,这还包括新一自己。新一的构想是建立在远阿贝尔几何的基础上发展出来的。所以这对于研习这篇论文的倒霉蛋来说,理论基础要求太过于艰难。

作者: 晨枫    时间: 2018-3-10 23:27
江城如画里 发表于 2018-3-10 01:59
我对金观涛这篇不怎么感冒,怎么说呢,有种科学家面对哲学家的无力感,或者说金观涛这全文就是一种类似于“ ...

金观涛不知道专业是什么?他有专业吗?不管了,我对他这篇东西的认同只要在于一个观点:现代深度学习为代表的人工智能依然是条件反射式的,可以说有一定的归纳能力,但并不具有真正的推理能力。AlphaGo自我训练依然是条件反射式的,只是在规定的规则和判据下自己创造一堆条件了。

AlphaGo肯定是巨大的进步,多层网络的工作机制有太多复杂性,人类难以完全理解。但复杂性不代表智能,只是堆积而已。

个人认为,他的“其实,早在“人工智能”这一观念出现以前,AlphaGo的工作原理已经被数学家和生理学家发现了。”应该从哲学高度而不是技术层面理解。就像最小二乘法的原理是高斯发明的,但直到今天,在各种应用中,依然有这样那样的问题,再出几百篇博士论文都是轻而易举的事。但这不改变高斯已经把最小二乘法的实质弄清楚了这一事实。

他塞私货,这大概是习惯性吧,青年导师当惯了,现在没人听,抓住有可能会有人听的机会,还不塞一点?
作者: 晨枫    时间: 2018-3-10 23:36
江城如画里 发表于 2018-3-10 02:13
再随便评价一下,金说的,关于符号主义和连接主义,这个倒是可以一谈的。确实原来就是有此争议,前者认为可 ...

这一段要赞,尽管没有完全看懂。

个人对神经元和多层网络是这样理解的:这和冯·诺伊曼用二进制有异曲同工之妙,但更进一步。二进制的妙处在于把数值运算和逻辑运算统一起来了,但本质离散使得这东西离一统天下还差一步。神经元的S曲线可以平顺地在数值运算和逻辑运算之间过渡,就比较容易更精确地反映过程内部的复杂性。不过个人坚持认为:这还是传统建模(包括内插和外推)的推广,用另一个更复杂形式的函数形式而已。反映的还是输入-输出行为,不代表过程本质。因此最终是受到观察所局限的,而达不到真正的智能。

现在对人工智能的巨大兴趣来自一个问题:人工智能是否会超过人类智能。从速度和复杂性来说,可能已经超过了。但从突变思维和创造思维来说,现在还没有。问题在于将来是否可能?个人觉得(没有任何证明):不可能。
作者: 冰蚁    时间: 2018-3-11 03:46
晨枫 发表于 2018-3-10 10:36
这一段要赞,尽管没有完全看懂。

个人对神经元和多层网络是这样理解的:这和冯·诺伊曼用二进制 ...

你咋定义创造思维?Alpha go里下出围棋高手都想不到的妙手在你的定义里算是有创造思维嘛?
作者: 江城如画里    时间: 2018-3-11 09:37
本帖最后由 江城如画里 于 2018-3-11 10:11 编辑
晨枫 发表于 2018-3-10 23:36
这一段要赞,尽管没有完全看懂。

个人对神经元和多层网络是这样理解的:这和冯·诺伊曼用二进制 ...


神经元这个S曲线,也得吐槽下,当初神经网络初期发展时,Sigmoid函数确实震服了不少人,觉得从线性到非线性,绝对是这个sigmoid函数的功劳,然后当时出了一大批论文论述,为啥sigmoid函数是科学的,大有前途的。然后当然实际应用中,慢慢毛病出来了,主要是梯度下降中收敛的太慢(所谓的梯度消失或之类的问题),才有人尝试其它形式,比如tanh(双曲正切)形式的。
然而到2006年前后,人们惊讶的发现,似乎对于大多数网络,用最简单的直线,也就是ReLU,才是最好的。ReLU,其实就是说0以下为0,0以上保持线性。当时看到结果时,简直一种吃到狗屎的感觉。和着弄了几十年,费劲心力构造激活函数,结果答案如此简单。回头去看当年汗牛充栋的解释为啥sigmoid函数好的论文,很魔幻的感觉。
对了,alphago中的残差网络中,基本上主要的激活函数用的也是ReLU,线性的。

另外,关于AI的发展,其实存在着两种不同的派别,估计晨大对这个也感兴趣。基本上类比于航空来说,一类叫鸟飞派,一类是飞机器派。
前者是原教旨主义的连接派,就是利用人工神经网络去模仿生物神经网络,认为上帝创造的东西有它的道理,类似于人去模仿鸟的飞行,弄扑翼机啥的,其实当年的sigmoid函数,就是鸟飞派的杰作。
那么飞行器派,意思是觉得人要飞不一定非得学鸟长出一对翅膀,而是要研究空气动力学,在空气动力学发展到一定程度后,自然会从头设计出飞机这个铁鸟来。用ReLU替代了sigmoid函数,其实就是这派的工作成果之一,因为它只关心怎么样效果好,不关心实际生物是不是这样的,实际生物神经网络似乎没发现过哪个生物用的是ReLU 这样的线性激活函数(方家指教打脸)。
当然现在飞行器派,也一样是步履蹒跚,前篇就说过了,目前最简单的网络其动力学特性都还没搞清,为什么要七层而不是八层,为什么这一层有255个结点而不是300个,为什么学习速率要设定成某个值。事实上目前来说,这些问题的答案都是一个,试出来的,而且所有宣称自己效果最好的都没真实的底气,因为既没有穷尽所有可能,也无法从理论上证明自己的网络设计最好。
我一直觉得神经网络这门小学科,缺少类似航空中空气动力学这样的利器。空气动力学仍然有不好解的问题,然而他至少能说明为啥铁的东西还能飞起来,神经网络从业人员现在连为啥自己的网络有作用都无法用数学的语言表达出来,所以论文看着像巫术指南。

作者: 江城如画里    时间: 2018-3-11 09:55
晨枫 发表于 2018-3-10 23:27
金观涛不知道专业是什么?他有专业吗?不管了,我对他这篇东西的认同只要在于一个观点:现代深度学习为代 ...

对于这个,我同样也是困惑的,不敢说自己想的就是对的。其实我思考方向是反过来的,晨大和金观涛观点有一点类似的,就是认为深度学习是条件反射式的,所以不具备推理能力,而人是具备推理能力,所以应该不是深度学习的网络。
我日常也常常困惑于这个问题,但是从两个方向去想,觉得都有他们的道理。
一种观点认为,深度网络是一切的,这一派觉得,人脑就是深度网络,所谓的推理能力也能够以深度网络模拟,我仔细看看觉得金观涛的观点并没有排除这种可能性,因为他自己给的那个A,B,C集合的理论,我尽力按行业的角度去理解,认为它仍然是深度学习网络,并没有本质的变化。这里关键是并没有搞清推理是一种什么东西,从数学上也没法证明推理过程不能由深度网络实现。如果金观涛所说的这个推理,就是形式逻辑(比如证明四色定理这样的事),那么深度网络百分之百是可以干这事的,因为理论上证明过深度网络是图灵完备的,任何图灵机能干的事,深度网络一定能干(当然效率另说),而形式逻辑不超过图灵机的能力。
所以除非证明了,推理这个概念超过了图灵机,否则说深度网络无法推理这是站不住脚的。
这一派的支持者一般持这样的观点,当初人类先祖,也是生物大家庭的众人,似乎出现某种变异或者受到某种病毒入侵后,大脑的连接发生了本质变化,才发展出如此高的智能。从这个过程看,我们较普通生物似乎就是一种高级连接形式决定了我们有更高的智能的。而这些智能对于神经网络不是高不可攀的,我前段时间看过报道,说澳大利亚科学家证明了乌鸦会人为纵火,让山林烧起来,使动物烧死,自己得利。我觉得这要不能称为智能,怎么样的标准才能叫智能呢?

这一派说完,我说说悲观派吧。
悲观派也是从数学基础出发的。上面讲了,深度神经网络是图灵完备的。但是反过来说,人类早就知道,图灵完备不是一切,数学上存在着图灵机搞不定的问题,而且是一大堆。这是因为图灵机的推导从哈密顿函数开始,加入了一些可导可微条件才推导出来,那么在处处不可导或不可微的函数上,也许存在着另一个世界。
那么问题来了,人类的思维,是在图灵机这个层次?还是在图灵机以外的层次?如果真的是图灵机以外,那么深度学习网络怎么搞都是没戏的。
问题就是,我们还不知道,人类的思维能力到底扎根在哪里。
我个人当然希望,咱们是超越图灵机的存在,然而没这个本事证明
作者: 晨枫    时间: 2018-3-11 11:32
江城如画里 发表于 2018-3-10 19:37
神经元这个S曲线,也得吐槽下,当初神经网络初期发展时,Sigmoid函数确实震服了不少人,觉得从线性到非线 ...

说得非常好!很同意。有两派,恐怕关键还是在于人类依然缺乏对人类智能的精确理解。个人甚至怀疑:人类是否可能精确理解人类智能。这有点像逻辑循环或者测不准原理那样的东西,可能在哲学层面上就是不可能精确理解的。
作者: 晨枫    时间: 2018-3-11 11:34
本帖最后由 晨枫 于 2018-3-10 22:13 编辑
江城如画里 发表于 2018-3-10 19:55
对于这个,我同样也是困惑的,不敢说自己想的就是对的。其实我思考方向是反过来的,晨大和金观涛观点有一 ...


赞就一个字。长知识了!看来人工智能正在进入像量子力学在100年前的境界:已经进入哲学境界了。要是能出一群爱因斯坦、玻尔、海森堡这样的人工智能学家,那下一个50-100年就热闹了。
作者: 晨枫    时间: 2018-3-11 11:35
冰蚁 发表于 2018-3-10 13:46
你咋定义创造思维?Alpha go里下出围棋高手都想不到的妙手在你的定义里算是有创造思维嘛? ...

老实说:感觉还不能算,但说不好为什么。
作者: testjhy    时间: 2018-3-11 17:20
晨枫 发表于 2018-3-10 23:36
这一段要赞,尽管没有完全看懂。

个人对神经元和多层网络是这样理解的:这和冯·诺伊曼用二进制 ...

哈哈,晨司机很敏感嘛,马上感觉神经元和冯诺伊曼之间有异曲同工之妙,我手上作业完成后,写一段故事,其中就有你的推测,
作者: 晨枫    时间: 2018-3-11 22:07
testjhy 发表于 2018-3-11 03:20
哈哈,晨司机很敏感嘛,马上感觉神经元和冯诺伊曼之间有异曲同工之妙,我手上作业完成后,写一段故事,其 ...

哈哈,坐等专家对我的胡思乱想的深入批判。
作者: 捣江湖    时间: 2018-3-11 22:14
AlphaGo 不是用的 reinforcement learning +DQN吗? 我没仔细瞧。 也就是仿生式的奖励驱动,网络会自动的获取最大远期回报而不是眼前的近期立即 的回报(下象棋的时候不是首要最迅速的把眼前的子吃掉,而是一切为了最后的胜利)。 网络也只是一种函数,即一个映射,从自变量 到因变量,从因到果。被他们忽悠的一晕一晕的,现在我还晕乎着
作者: 冰蚁    时间: 2018-3-12 09:05
本帖最后由 冰蚁 于 2018-3-11 20:06 编辑
晨枫 发表于 2018-3-10 22:35
老实说:感觉还不能算,但说不好为什么。


我个人感觉是在把智能和意识混在一起。以后的通用人工智能也许可以用吃禁果以前的亚当夏娃类似。但如何从中诞生出“我”这个意识,更没人知道。
作者: 红茶冰    时间: 2018-3-13 00:58
江城如画里 发表于 2018-3-11 09:37
神经元这个S曲线,也得吐槽下,当初神经网络初期发展时,Sigmoid函数确实震服了不少人,觉得从线性到非线 ...

抽象的东西咱就不说了,咱说实际的。公安部从863第一期开始就一直支持——给钱给库,直到863最后一期公安部彻底放弃(十二五863相关专项指南里已经明确写上生物模式识别类项目一律不予支持),差不多20年,从2个大学做,到最后5个大学、5个研究所再加上5个公司,东西完全没法拿出来说。比如说公安部某类450万人数据的大库,你选个几十万出来训练(兵强马壮的话可以全选),然后用大库来检验,结果根本没法看,要知道给定的要求不是要你一眼就把红茶冰认出来,而是选出一堆和红茶冰比较像的,最后机器来判定是不是红茶冰。而误判率部里要求不能高于千分之一 当时最好的结果是百分之十~大家想想,一个人流量二十万的港口/车站,得要多少条子来做事呢?
还有最关键的一点就是,所有参与技术人员都没法给出一个明确且行之有效的解决之道。换句话说就是所有人都是一脸懵逼不知道咋办,谁都说不清楚问题出在哪,更别说如何解决。你们可以想象下当年公安部科信的那帮子脸上是啥表情了~
对了,肯定会有人跳出来说土鳖技术差如何如何,再举个栗子,英国某华裔大咖与一所进行技术交流,在纯环境下大咖的模型无论怎么折腾精准率都不如一所的高。加入背景噪音后大咖的错误率都没法看。这样的测试不是一回两回了,每次都是一所那帮子土鳖胜出(多少让部里面的大佬挽回一丝丝颜面)
当然 也不能说深度学习之类的都是扯淡,老话说术业有专攻,高度依赖训练的技术一定是高度专用的,因为它的优化高度依赖训练库和训练环境以及某些特殊技巧。因此以此为基础不谈适应范围,而去说普适性那才真是扯淡。
PS:话说坛子里这么多生物党就没人出来吧唧几句?老外用神经网络进行药物分析分子动力模拟不是搞得挺火热的嘛。毕竟模型还是符合数学语境下的目标函数确定与约束条件给定这个关键要点。
江城 晨大你俩应该抓几个生物壮劳过来活跃下气氛嘛,像妮妮啊老关啊不就挺合适哈ᖗ( ᐛ )ᖘ

作者: 冰蚁    时间: 2018-3-13 01:57
你是指人脸识别吗?
作者: 晨枫    时间: 2018-3-13 02:14
本帖最后由 晨枫 于 2018-3-12 12:15 编辑
红茶冰 发表于 2018-3-12 10:58
抽象的东西咱就不说了,咱说实际的。公安部从863第一期开始就一直支持——给钱给库,直到863最后一期公安 ...


谭妮、关劳他们忙着野战,没这工夫

话说,不是说TG实时人脸识别已经进入实用化,把BBC的记者在“实战试验”中准确抓出来了吗?
作者: 红茶冰    时间: 2018-3-13 02:33
晨枫 发表于 2018-3-13 02:14
谭妮、关劳他们忙着野战,没这工夫

话说,不是说TG实时人脸识别已经进入实用化,把BBC的记者在“ ...

已公开且大规模应用的人脸识别/人工视觉/图像识别的是公安部追逃系统,因此可以存在/接受的误判率,再者 追逃系统的数据库可用来比对的数据可不仅仅是面部特征数据,还有身高两边侧脸的数据。这样一来比对的精准率就高太多了。那么 这些数据怎么来的捏?因为 追逃系统里的人很多都是两劳/公安机关处理过的人员。看过电影的都应该看过倒霉蛋都要拍照留底的~
话说 没想到老关那浓眉大眼的家伙也堕落啦?(●⊙ꀦ⊙●)
作者: 晨枫    时间: 2018-3-13 03:15
红茶冰 发表于 2018-3-12 12:33
已公开且大规模应用的人脸识别/人工视觉/图像识别的是公安部追逃系统,因此可以存在/接受的误判率,再者  ...

切,老关那就没不堕落过
作者: code_abc    时间: 2018-3-13 09:16
红茶冰 发表于 2018-3-13 02:33
已公开且大规模应用的人脸识别/人工视觉/图像识别的是公安部追逃系统,因此可以存在/接受的误判率,再者  ...

那现在银行搞的刷脸取款是什么水平?
作者: 冰蚁    时间: 2018-3-13 12:59
红茶冰 发表于 2018-3-12 11:58
抽象的东西咱就不说了,咱说实际的。公安部从863第一期开始就一直支持——给钱给库,直到863最后一期公安 ...

既然是指人脸识别系统,那么这种安保系统已经一定程度商用了吧。比如公司的门禁,机场的安检。美国去年还有人讨论美国homeland security 在一些机场试点人脸识别系统的一些问题。那套系统貌似比较实际的人脸和photo ID上的人脸。FBI 好象从2015年开始也应用了人脸识别系统。不清楚这些系统的误判率是否有千分之一。但人脸识别是最近这几年开始火,直到发展到连iphone都来凑热闹。而你说十二五以前的事情,也就是2010年以前,那会儿确实没什么突破。
作者: 红茶冰    时间: 2018-3-13 19:43
冰蚁 发表于 2018-3-13 12:59
既然是指人脸识别系统,那么这种安保系统已经一定程度商用了吧。比如公司的门禁,机场的安检。美国去年还 ...

你所指的人脸识别其识别难度压根没法与摄像头进行人脸辨识相比。首先 刷脸机器的摄像头与人脸是平行的压根不需要后期对脸部特征进行重构模拟。监控摄像头全是大角度拍摄而且镜头本身就是广角,前期需要多次拟合。多用来比对的数据本身就有缺陷。再者光线也是个大问题。
而且现在不少刷脸厂商都采用双摄像头来实现三维化的面部数据,这样一来面部轮廓的数据更翔实 ,想不准都难。
作者: 红茶冰    时间: 2018-3-13 19:50
红茶冰 发表于 2018-3-13 19:43
你所指的人脸识别其识别难度压根没法与摄像头进行人脸辨识相比。首先 刷脸机器的摄像头与人脸是平行的压 ...

大家看看阮童鞋多年前发的文章:http://www.ruanyifeng.com/blog/2 ... r_image_search.html
作者: jeckforlete    时间: 2018-3-15 10:57
晨枫 发表于 2018-3-10 23:36
这一段要赞,尽管没有完全看懂。

个人对神经元和多层网络是这样理解的:这和冯·诺伊曼用二进制 ...

我觉得现在的人工智能就是高级点的计量经济学。
个人观点:对绝大部分人来说,围棋可能更多的是一种思维模型和训练工具,可以总结出来可以用于其他博弈领域的普遍规律。而对计算机来说,是就围棋而围棋的,甚至于就数学而围棋的。相当于大家在一个迷宫里玩得不亦乐乎,人家直接开个推土机硬推过去算球。
作者: 冰蚁    时间: 2018-3-15 19:59
jeckforlete 发表于 2018-3-14 21:57
我觉得现在的人工智能就是高级点的计量经济学。
个人观点:对绝大部分人来说,围棋可能更多的是一种思维 ...

alpha go 不是这样的。而且其算法的意义也是超越围棋的。
作者: 定风波    时间: 2018-3-18 18:09
冰蚁 发表于 2018-3-15 19:59
alpha go 不是这样的。而且其算法的意义也是超越围棋的。

对的,尤其是新版的。强化学习技术目前看是一个小突破,可以给予规则进行自学习,威力已经不算小了。生成对抗网络也有点这个意思,现在自动驾驶里面用这个尝试的不少。
作者: njyd    时间: 2018-3-19 16:24
太长,把我的智能都看没了。

“1970年毕业于。。。。”,似乎哪出错了?大学本科四年,70年毕业应该是66年入学,而66年没有招生,高考前文革就开始了。
作者: 晨枫    时间: 2018-3-19 21:54
njyd 发表于 2018-3-19 02:24
太长,把我的智能都看没了。

“1970年毕业于。。。。”,似乎哪出错了?大学本科四年,70年毕业应该是66年 ...

应该是65或者64年入学的?文革开始了,不再是4年毕业,到复课闹革命后才毕业。
作者: njyd    时间: 2018-3-19 23:06
晨枫 发表于 2018-3-19 21:54
应该是65或者64年入学的?文革开始了,不再是4年毕业,到复课闹革命后才毕业。 ...

文革中的学生都是按原应该毕业的年份算,跟实际离校时间无关。
比如我本应67年初中毕业,68年离校插队,还是算67届毕业生。如果都按离校时间算就没有老三届了,只有老一届。
大学应该也一样,我再找人问问。
作者: 晨枫    时间: 2018-3-20 01:18
njyd 发表于 2018-3-19 09:06
文革中的学生都是按原应该毕业的年份算,跟实际离校时间无关。
比如我本应67年初中毕业,68年离校插队, ...

有可能大学生和中学生不一样?这个就不知道了。
作者: yeqin    时间: 2018-4-20 01:05
njyd 发表于 2018-3-19 16:24
太长,把我的智能都看没了。

“1970年毕业于。。。。”,似乎哪出错了?大学本科四年,70年毕业应该是66年 ...

五年制大学本科毕业,65届高中。文革前很多五年制的,文革后就不多了,记得牙医还是五年制的。
作者: njyd    时间: 2018-4-20 19:05
yeqin 发表于 2018-4-20 01:05
五年制大学本科毕业,65届高中。文革前很多五年制的,文革后就不多了,记得牙医还是五年制的。 ...

五年制的是医学专业
作者: 晨枫    时间: 2018-4-20 21:48
njyd 发表于 2018-4-20 05:05
五年制的是医学专业

记得清华也是五年制的,别的不记得了。
作者: 老福    时间: 2018-4-20 22:22
本帖最后由 老福 于 2018-4-21 02:40 编辑
红茶冰 发表于 2018-3-13 00:58
抽象的东西咱就不说了,咱说实际的。公安部从863第一期开始就一直支持——给钱给库,直到863最后一期公安 ...


如果我记得不错的话,深度学习的突破性进展是在2010前后。863计划相关项目完美地提前了。算法这种东西,差一点都不行,虽然都叫神经网络。


Chinese man caught by facial recognition at pop concert (13 April 2018) (BBC News)

Mr Ao was identified by cameras at the concert's ticket entrance, and apprehended by police after he had sat down with other concert goers.

"The suspect looked completely caught by surprise when we took him away," police officer Li Jin told state news agency Xinhua.

"He didn't think the police would be able to catch him from a crowd of 60,000 so quickly," Mr Li, from Honggutan police station in Nanchang city, added.

Mr Li also told China Daily that there were several cameras at the ticket entrances equipped with facial recognition technology.





欢迎光临 爱吱声 (http://aswetalk.net/bbs/) Powered by Discuz! X3.2