设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 8919|回复: 82
打印 上一主题 下一主题

[科技前沿] 人工智能会成为人类智能的终结吗

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
发表于 2016-1-29 14:15:35 | 只看该作者 回帖奖励 |正序浏览 |阅读模式
本帖最后由 晨枫 于 2016-1-29 08:39 编辑
# c' x& v' P5 P) R$ z, T- t6 V( y( n2 R) a3 d$ u
谷歌的AlphaGo战胜欧洲围棋冠军,引起轰动。人工智能是否会成为人类智能的终结,再次成为热门话题。
- w3 S! C: A/ Y7 q, ~% S; g+ G
- V, P5 t9 U" S  U7 x计算机在国际象棋里战胜世界冠军,这已经是好几年前的新闻了。围棋比国际象棋更复杂,计算的复杂性是高得多的层次,一般认为不可能靠穷举法计算出正确步骤。谷歌AlphaGo在人类专业对手不让子的情况下,5:0大胜,这确实是惊人的成就,但这依然应该放到大框架下来看。围棋尽管复杂,但依然是有限问题,只有有限的棋盘、有限的棋子。靠穷举法已经不可能,但机器学习、深度学习可以看作更“聪明”的穷举法,只是通过学习减少需要穷举的组合,极大地提高了穷举的效率,相当于研究前人的精华棋谱,掌握在一定棋局时的成功应对路数。谷歌AlphaGo还可以自己与自己对弈,快速积累经验,储存更多成功的棋局,用于实战时的指导。这与人类下棋时并无原则不同,好棋手走一步看两步,这看两步其实也是在评估不同走法的优劣,其中经验(包括来自棋谱的间接经验)指导了评估和测试的方向,减少了无效的“胡思乱想”。
: z) _- u" F  |) {; m
2 J, L3 S1 x  T4 I: ^: ^随着CPU速度的提高、内存容量和速度的提高,计算复杂性的门槛越来越高,机器学习使得“智能比较”和“智能穷举”越来越现实,很多过去认定不可能破解的问题现在可以破解了。按某种估计,围棋的复杂度是10的170次方,比国际象棋的10的47次方多100多个0,换句话说,计算机战胜围棋世界冠军也只是一个时间问题。但这就是人工智能吗?究竟什么是智能?事实上,人类对于智能并没有统一、精确的定义。在某种意义上,这和泛泛的“好”一样,只是相对于“坏”。智能只是相对于愚钝而言。  p6 t' H+ G& L; H9 {

3 b; @0 F& F! `3 T人类智能的最大特点其实在于突变和急智,在于灵机一动、超常思维和创造性。纯经验的思维与条件反射没有本质差异,谈不上智能。在有限棋盘、明确规则情况下,如果能突破计算复杂性的障碍的话,纯经验、穷举法是可以找到最优解的。但换到无限棋盘、模糊甚至动态规则的情况下,纯经验、穷举法就不灵了。赵括的故事人人知道,这不是兵书的错,而是对棋盘和规则的理解错误。熟读唐诗三百首依然只是鹦鹉学舌,单靠这是成不了李白杜甫的。法律是人类智能能做到的最明确无误、最没有歧义的文字,但法庭判决依然不可能由计算机做出,因为再明晰的法律条文依然有模糊的边界,再清楚的被告行为依然有模糊和多义的解释。具体到计算机下围棋上,如果开盘时临时把棋盘加大一倍,棋子增加,人类棋手和计算机棋手都会大吃一惊,但人类棋手会根据经验和原则边摸索边继续下棋,计算机也会,但先前的“机械记忆”的经验就不一定有能力外推到新的棋局了,可能要从头来起。有足够运算速度的话,依然可以边考虑下一步对策,变自我大战3000万个回合,迅速积累经验,但利用前人棋谱这样的学习就难了。
( Z! `+ J% O+ {5 ]
: s  G# L- ?+ ]* c$ Z人类对于自身的智能依然缺乏理解,尤其是对于突变思维缺乏理解。人工智能按照人类对智能的理解来实现的话,在本质上无法突破这个极限,就好象在二维空间里怎么划道道,也成不了三维的图像一样。除非人类对于自身的智能有了突破性的理解,人工智能终结人类智能的可能性并不存在。但人类理解自身智能可能有逻辑和哲学上的怪圈,自己不可能真正理解自己。这就像永动机一样。
# x: X8 C0 G. X2 n5 n- a) N$ s
- c" j7 t2 e6 e1 Q但纯经验的人工智能依然可以在明确定义、可重复的任务中达到人类的程度。比如说,早已没人试图在心算中打败计算机了。即使是只可意会不可言传的厨艺,只要可重复,人工智能就能做到。可能缺乏点灵性,但口味还是有保证的。这对人类意味这什么呢?这逼着人类向着智能型发展,只有机器想不出、做不到的事情,才是人类的保留地。这和机器时代正好相反,那时是只要机器能做的,都交给机器去做。英文中有一句话,even a monkey can do it,意思就是说,根本不需要懂脑子。在人工智能发达之后,if a monkey can do it, a monkey will do it, there will be no place left for you。
+ W& Y- O7 z3 X' u. r0 `2 |; P$ O- W( o2 ?. T
未来社会将高度重视教育和思考,体能、敏捷反而成为修身养性的东西,因为人类的体能和敏捷不可能超过机器,只有人类的创造性思维才是优越性所在。

评分

参与人数 8爱元 +28 收起 理由
希宝 + 2 谢谢分享
煮酒正熟 + 6
坚持到底 + 4 谢谢分享
holycow + 4 淡定
tanis + 2 谢谢分享

查看全部评分

本帖被以下淘专辑推荐:

  • TA的每日心情
    慵懒
    2018-6-21 13:05
  • 签到天数: 21 天

    [LV.4]金丹

    73#
    发表于 2016-7-28 00:45:56 | 只看该作者
    本帖最后由 loy_20002000 于 2018-8-24 20:20 编辑
    8 g( E, `& f  [; W9 V/ e& R+ c- b# A8 E5 m* L+ K
    7 x6 Q6 v: B; [+ a, j( V
    坚持一个中心两个基本点,两手都要抓,两手都要硬。
  • TA的每日心情

    前天 03:52
  • 签到天数: 1479 天

    [LV.10]大乘

    72#
    发表于 2016-6-15 09:14:08 | 只看该作者
    一叶飞刀 发表于 2016-6-14 22:24
    # d. Y. t$ T+ R# Z+ \! o7 p准确地讲,是伪随机数,计算机科学不承认计算机能产生随机数,别说是一般游戏用的随机数,就算是密码技术 ...

    , U* X; Y" H  @. y, q2 A随机数芯片可以是外部输入的,谁说计算机科学就不承认了。举个例子,一个计算穿过芯片的宇宙射线的芯片,算不算随机?而且如果这些不算随机,难道人脑就有随机了?

    该用户从未签到

    71#
    发表于 2016-6-14 22:24:55 | 只看该作者
    四处张望 发表于 2016-6-11 13:27, L+ M$ l4 N* m8 O4 e$ I) A* b
    http://www.jianshu.com/p/bc2eec8dc115
    + X0 W# ^0 W, O我基本上同意这篇文章的观点。
    3 d+ b4 ?/ Z: L  o7 @) f* i" c有几个方面:

    9 V3 M) g% X# v1 l( p7 v3 }' {) ^. D0 C准确地讲,是伪随机数,计算机科学不承认计算机能产生随机数,别说是一般游戏用的随机数,就算是密码技术中的随机数,也依然是伪随机数

    该用户从未签到

    70#
    发表于 2016-6-14 22:22:49 | 只看该作者
    晨枫 发表于 2016-6-9 21:30/ v1 ?6 T" z; ^. a4 u  o
    能对图灵有限状态自动机展开谈谈吗?
    6 j  k+ S% a* @  [* x# F) Y$ q. h
    有限状态自动机在数学上,是一个五元组:{ s0,F,S,C,se},其中s0是系统的初始状态(这个初始状态,如果是80x86的话,则大致可以理解为所有寄存器=0,指令寄存器=0,代码段寄存器全部置高位),F是状态转移函数,可以表示为F(s,C)=s,两个s不同,均属于集合S,可以表达为当前状态接受一个“字符”(信号),系统会跃迁到一个新的状态。C是可接受的“字符”集,对于现代计算机而言,“字符”可以理解为内存传过来的高低电平。se:终止状态,即停机。
    : w5 _4 C& A, |% I7 N
    8 z9 x5 Y/ |; u; Z上个世纪50年代的祖宗级计算机很明显:系统有初始状态,然后根据输入的纸带的符号(有无空)来决定系统的下一个状态。当代的计算机极为复杂,但是其原理,依然没有逃离有限状态自动机。比如其状态是有限的(寄存器+内存的位数总是有限的,无论你如何扩充),即使由于使用伪随机数,让其表现可能有一些随机性,但是如果你尝试足够多次,其模式会重现,可以参考抽屉原理。, H! \& K- N  |. T

    , E' M. h# D) h  A+ Y2 G: b人工智能,首先要定义智能,问题是,人目前从哲学上定义智能/智慧/意识尚且困难,如何能人工模拟智能?智能的核心可能是自然语言,比如要是一只鸡会讲话,我们下叉子吃它怕是会有重大心理压力。就目前而言,对自然语言的理解,好像没有什么进展。花生医生答脑筋急转弯,仍然用的是模式匹配,而并非对语言的解析,那些通过图灵测试的聊天软件,应该也是同样的原理。
    9 s: e8 Z* r1 z; |. R& \, x3 S
    $ s( c- B( a* o; s; w% Z2 I图灵测试:接到QQ发来的信息,仅通过与其聊天,判断是否是人还是软件在生成聊天信息,如果成功的骗过了人,则通过测试。如果只给你狗李大战的棋谱而不告诉你谁持黑,如果你无法明显分辨,则阿法狗通过图灵测试。, M5 f% w/ k% ^; `' b
    # c0 U5 \% Z4 ]
    关于人脑的功率,现在食品包装上有能量信息,后面有一个百分比,就是指该能量占推荐能量摄入的比例,所以可以反算推荐能量摄入。据说安静状态下大脑功耗占40%,推荐的能量摄入显然不是安静状态,假如按20%计算,262/0.03=8733KJ,8733*0.2=1746.6KJ=1.7×10^6,一天大概9万秒不到,则功率差不多就是20瓦
  • TA的每日心情

    2018-1-18 09:51
  • 签到天数: 87 天

    [LV.6]出窍

    69#
    发表于 2016-6-11 15:11:42 | 只看该作者
    1、“哲学层面”是什么东东?“哲学层面”与物理学层面“有什么区别?仿佛哲学与物理学等是一个并列的学科。哲学可不是专业,严格地讲,”哲学层面“是一个可疑的表达式或提法。* D2 h# |9 w$ Y- W8 b+ L- q# A& i/ \

    / m' A! o6 z) l1 C! R2、不是很喜欢“人类智能”而偏好“人类心智”这个提法。) Q1 L; n; ^! ]  \; \% g5 ~! I) ?* Q
    1 x2 k# X  l1 ]% e
    3、人类心智总是和人的欲望、价值、感受、理想、态度等联系在一起的,把人类爱情、做爱、争吵、生死等还原到生理层次,抑或物理学量子层次,我们就能解决我们的困惑吗,就能解决“我爱她而她不爱我”问题吗?能解决巴以问题,能解决中日钓鱼岛之争吗?) g% D% S4 H8 b
    3 M" J; B" [$ r9 {0 t( o
    4、人工智能兴起,大概需要我们重新审视学习、推理、判断、感受、意识、反思等问题或概念,如机器人“学习”,小狗“学习”和人类学习区别何在?另外,一个机器人通过“欺骗”赢得另一个机器人的"爱意“,这个句子或表达式我们能理解吗?我们能否说,机器人虚伪、诚实、真诚?
    8 ^& F% B/ y, k! ~
    2 d9 T; A0 F  \8 S9 `# H. B5、规则的应用本身无规则而言,假如有规则可言,就会陷入无穷倒退的逻辑困境,规则的应用往往需要判断力、实践智慧或明智、向典范学习(徒弟按师傅怎么做的去做的)等。5 P$ _# o! l. [* m
    / [5 x7 j) t9 x. G
    6、AlphaGo涉及的推理是一种形式推理或必然性推理而不是经验推理或或然性推理,如想想数学推论与夫妻间吵架时一些匪夷所思的推论就可以看到两种推理的一些区别,或者想想,把蛋糕一分为二和人与人之间是平等的,经验推理要涉及我们感受、价值、世界观、制度、文化-社会-历史才有可能进行下去,而形式推理则不需要,1+1=2对中国人和美国人是一样的。$ l, f/ ^+ L5 u+ R: d
    6 A4 X8 F! k# J; j
    7、机器和人工智能的兴起,男人危矣,在我的理解中,男人的能力、勇敢、英雄气概很大部分都跟男人的身体在生理上优于女人连着,男人对女人的身体优势现在可以被机器取代了,那么男人该如何展示勇敢、英雄气概?凭什么来吸引女人呢?男人危险啊!
  • TA的每日心情

    前天 03:52
  • 签到天数: 1479 天

    [LV.10]大乘

    68#
    发表于 2016-6-11 13:27:44 | 只看该作者
    晨枫 发表于 2016-6-9 21:30% a) y- z7 R* \+ c4 y
    能对图灵有限状态自动机展开谈谈吗?

    ) I0 x7 s% G* j* Z" b7 Khttp://www.jianshu.com/p/bc2eec8dc115 8 L. T3 k* X0 F8 B) |% {
    我基本上同意这篇文章的观点。
    . G( Z5 ?" q4 U3 j/ r9 B有几个方面:) x* J2 p: q' i; L+ a6 u5 e
    这种把计算机限定为使用逻辑,进一步说是数理逻辑,然后引入哥德尔定理。说明无法实现强AI。这种东西都很快会沦落到自我意识,主动性之类的哲学命题。! t  S1 o' a/ D# h: `- D
    那么,现在计算机,举个例子,加个随机数芯片,你还能当是有限嘛?当然你可以说实际上有最大数,但是物理世界本来就未必是有无限的。# o* W, Q8 b/ F$ E& g
    再比如,一个永远无法理解哥德尔的人,难道就不能称之为具有强智能嘛?
      e" r" T) m& C, ]
  • TA的每日心情

    前天 03:52
  • 签到天数: 1479 天

    [LV.10]大乘

    67#
    发表于 2016-6-11 13:18:37 | 只看该作者
    燕庐敕 发表于 2016-2-2 09:482 Q& Q; F+ W1 X- U8 l0 V
    我也觉得大脑是个很高效的器官
    $ G9 L4 x* ^5 e* [- d
    我记得接近300w

    该用户从未签到

    66#
     楼主| 发表于 2016-6-9 21:30:19 | 只看该作者
    一叶飞刀 发表于 2016-6-9 04:57
    ; i+ V: t5 _2 \9 w* I( U* u  E现代物理学认为,能量和质量是物质的两个方面,即拥有质量,必然拥有与之对应的能力,质量增加,则能量增 ...
    ; e9 m# [  \! c+ @
    能对图灵有限状态自动机展开谈谈吗?

    该用户从未签到

    65#
    发表于 2016-6-9 18:57:25 | 只看该作者
    晨枫 发表于 2016-1-29 22:513 L/ W& t7 q3 X3 O; o- Y
    这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量 ...
    : ]* h: Y9 n0 W
    现代物理学认为,能量和质量是物质的两个方面,即拥有质量,必然拥有与之对应的能力,质量增加,则能量增加。  I; C$ a. U. _8 I) ?3 r2 {) m
    现代计算机基于图灵有限状态自动机,永远都不可能产生智能。

    该用户从未签到

    64#
    发表于 2016-2-24 15:37:08 | 只看该作者
    晨枫 发表于 2016-1-29 22:31
    0 o' a' x+ t8 P0 K! B  W我认为从哲学层面上来说就是不可能的,就像永动机一样。不过现在还没有人在理论上证明必然还是不可能,先 ...
    ( \  _5 }! {3 c/ e
    哲学层面,如果你同意人的智慧完全来自于物理意义上人的大脑,而不是什么形而上的『灵魂』之类,那么没有任何理由说能够靠神经元通过突触互联互相传递电信号化学信号能够实现的东西,靠电子元件通过电路互联互相传递电信号就绝对不能实现。
    1 O4 ?2 ~  V7 ?& T" ~8 |
    8 q& U5 @- u5 E; ?* E! H5 J, t工程实现层面,Alpha Go 之类的系统,灭掉人类围棋选手只是时间问题。我们可以把场景继续扩大,比如『突然之间改成更大的棋盘』之类,然则这只是一般化了原来的一些规则,使得规则描述的范围变大而已。这可以拖延人类被击败的时间,然而但凡是存在严格规则限定的游戏,依靠更强大的计算力量计算机迟早都是能够击败人类的 —— 如果把现实世界看做由客观物理规则限定的游戏的话,前景呼之欲出了,

    点评

    油菜: 5.0
    油菜: 5
      发表于 2016-2-25 16:18

    该用户从未签到

    63#
    发表于 2016-2-11 11:57:26 | 只看该作者
    人工智能之所以还没有超过人类,主要原因在于3个方面:! a- h( j7 S0 ?/ x8 H1 l7 a5 O
    1计算能力还不够强
    7 C# H  T6 g8 k0 n& k$ {2感知2 s8 q- p5 F1 l3 k. F1 k/ R
    3编程方法9 `' X3 U, x2 |1 B4 y4 h, y

    0 ^9 G+ i7 [7 V: X5 E3 k9 u1计算能力相对人脑的上百亿神经元来说还是太弱,目前的观点是超级计算机已经可以达到人脑的千分之一。随着计算能力的进步,未来20年赶超人脑不是问题。
    6 a6 q+ q; f+ v( Q' m" \+ h2感知2 F# g5 p: I2 E
    人类思考的一个主要动力在于感觉器官给予人类大脑源源不断的信息刺激。但是目前的人工智能不能有效感知。这些刺激包括五感和书面语言。五感的识别能力的突破不存在理论上的问题,主要是受制于计算能力。语言认知的限制很大程度上是受计算能力和传感器的限制。比如计算机没有连接味觉识别系统的时候,没有办法识别味觉。但是这个不是问题。比如我们发明一种传感器,可以迅速分析食物的成分,然后设定一系列指标:比如甜度超过多少是过甜,盐分超过多少是太咸。7 o" ~6 N$ ?! ~% e
    传感器的进步,对于分析识别结果的定义,这些都是可以做的,不存在障碍,这些做好以后可以为下一步价值判断和模拟人类思考模式做准备了。
    $ f# g& d6 Y) q8 N+ G3编程思路问题) a8 A# c" I+ H0 c8 ~
    这个是哲学问题,但是并不需要非常高级的哲学。主要是需要定义好价值观和情感。. C% I+ `7 N. n5 Y
    先说情感:
    ! E0 {2 \7 f, P* k* n人的大脑是有两套工作模式的,情绪控制的I型和理性思考的II型。
    : S- Q8 o6 d  r$ l5 z$ T情绪我们可以姑且定义为喜怒哀乐四种,当然不同的编程者可以自由定义。6 R( Q4 Y0 ]- _/ ^/ p3 w" `
    我的定义方法是先简单分成3类,正面的,负面的和其他。
    8 V/ `7 a9 S- u4 s% u8 L" O- Z正面的包括可以获得更多资源(现实性及可能性),有利于繁殖,获得正面的评价和情绪。。。。+ F- ^; f6 ^( o/ L# n
    负面的与正面正好相反。。。4 m# j* i* N& L+ @6 A/ X" e
    未定义的为其他。
    * P# H; b9 Y( U  A+ d) }+ y只要明确了情绪的定义,下面就可以做一个情绪系统,根据传感器的信息来做出反应。  G( i* t% P9 v
    最简单的例子当人类用户输入“我喜欢你”,计算机判断是正面的情绪,所以也反馈一个笑脸表情。
    7 r/ t% I' b; _* j7 w3 X这个例子可以适当升级,计算机在识别技术的高级阶段,可以从网络视频里寻找一个归类于开心的动图,表情包,视频。。。然后显示在屏幕上。: W- ~, F+ Y8 |. H0 R3 C6 F+ w3 p" t
    大数据时代可以再次升级,根据用户的年龄习惯,爱好,给出一个反馈,比如给宅男以苍老师的微笑,给宅女以吴彦祖的微笑。9 S$ D; i5 g6 y) `* Z
    然后还可以继续升级,在传感器能够收集并识别足够的信息以后,计算机可以做出判断:你看起来不太开心?1 T; g5 n! e) \% P$ E) J3 \. s- B
    这个判断基于传感器传回的下列信息:8 I6 T; V' T8 n% ^+ B) w" |1 d5 a
    a用户散发的气味表明他3天木有洗澡
      ]3 l) L5 |' T7 q" fb面部表情有80%概率和符合不开心的典型表情
    3 `! f1 W+ i( T/ G* vc打字时候10次输入有3次使用退格键,低于一般正确率) ]/ @& q. Z4 K- E) `' c$ {7 ~' k
    。。。。- n. R* r- z7 `. P. r% Z
    9 d! Q6 s. c& |& {  C; j
    这样机器智能就可以在很大程度上模拟人类情感了。通过类似价值网络的学习,完全可以做出情感表达网。! Y3 G: q) @2 i; W

    ( Z- S! u1 `" K) R( E8 s, J再来说创造性:! F* Q# C6 C" ]! m7 x0 V
    这个是目前争论的焦点,就是机器有木有可能学会创造和自我思考。
    # F- E5 y$ e% g8 X# w+ v3 Z我觉得这个主要是编程方法问题。
    & [) v) E: }* U/ j# n人的创造发明是有规律的- H9 b. h2 M: x) Z
    发现需求--寻求方案--评估并选择最佳方案--实现  Z' Y. j  e/ f2 V
    这里面并没有不可以被定义的部分,也就意味着没有理论上的限制
    7 J1 w& o& w0 C4 x0 H* T% k3 ba需求
    $ W& ?1 V+ {' R# M6 C需求可以分两类:自发的和外界给予的。2 t, @4 T' u3 A( t
    给定命题求结论这个已经没有问题了。
    ) Z8 Z) H6 E; Q4 x0 ?$ I3 m内在需求其实也木有问题,只是涉及哲学和伦理了:
    ( A7 c& _. Y! ?) j3 _9 A) N我们可以赋予一张价值观的网络作为计算机自我评估结果的基准:
    7 ]4 v2 U2 f' _8 N, K$ X比如生存:物种的延续
    ! O: }% X0 S- Q" p, G发展:新的系统/产品比前代更好。好的标准包括更少的资源消耗,更多的功能,更低的成本。。。1 x- j5 v% ?2 g( K- p
    存在目的:计算机的存在是为了帮助人类更好的发展。(当然人类的定义是需要明确的)
      ]* a/ s0 s4 U+ ]- O+ d( n. ~存在任务:探索更好的方法解决人类的需求。(需求也是要定义的); Y# R! }/ X' `1 j5 U7 A1 Q
    7 Y# \; r  I; i* _" a1 T' y; J
    定义好价值判断网络以后,计算机就可以进行创造和发明了。
    2 e  @/ ^6 Z  t8 V比如只要有足够的信息,计算机可以自主探索基因治疗的方法。1 C/ K' r& \3 o1 H# ?/ D

    5 z( z( r1 g( x- ]9 i科学研究和工程在很大程度上是非常结构化和程序化的,只要给定精确的目标,分解任务,收集足够的信息,就可以做出比较准确的判断。9 D) W2 ]" D/ i% V  ^+ j
    我们可以训练神经网络从事具体的科研活动,比如自主定理证明。
    , Z$ g0 D  \1 Y1 G5 W- _) [$ G' m在传感和控制技术成熟以后,可以训练神经网络自己进行实验,并分析结果。
    0 f7 S) z" L+ b$ V, A: f从事具体工作的各种神经网络成熟以后,就可以和价值判断网络结合,从事自主创造发明活动了。
      Q) U1 _* P/ Y, o8 `# b/ x

    评分

    参与人数 1爱元 +4 收起 理由
    shijz + 4

    查看全部评分

  • TA的每日心情
    开心
    2022-8-10 16:37
  • 签到天数: 1067 天

    [LV.10]大乘

    62#
    发表于 2016-2-2 09:57:33 | 只看该作者
    冰蚁 发表于 2016-1-29 22:482 H8 u  I  o4 A3 e) A/ ?* L( x
    永动机是物理定律给限死了。AI 有什么物理上的限制?
    9 z" G7 g# t6 q" n3 i/ T
    貌似还真有,至少图灵机方式的计算机和强AI好像是不可行的。
  • TA的每日心情

    2020-11-20 06:24
  • 签到天数: 1618 天

    [LV.Master]无

    61#
    发表于 2016-2-2 09:48:17 | 只看该作者
    本帖最后由 燕庐敕 于 2016-2-2 12:11 编辑
    1 C* L& ~, J+ I& U1 _( ?- Q
    懒厨 发表于 2016-2-1 18:450 `7 H4 N! Y* h+ ]% z! g, M7 W
    我非常怀疑“人脑思考的功率是20瓦”,如果是这样,减肥应该很容易吧? ...

    % }: I, N0 l+ x7 B" N) I" a6 A6 p: j- F
    我也觉得大脑是个很高效的器官
  • TA的每日心情
    无聊
    2016-1-14 10:34
  • 签到天数: 2 天

    [LV.1]炼气

    60#
    发表于 2016-2-2 08:47:59 | 只看该作者
    从北苑到太古 发表于 2016-2-2 00:53
    & s& }: o( g& I0 [# t  k嗯,这是大概率的事件。瞎猜,真正高智商高自我认知的半人半兽(机器)类型的,大概在我们这一代就能看到 ...

    5 N$ X& T" B1 a' L$ H. @& O( k+ z我一直都坚定地认为,宗教和伦理不应该阻碍科学的发展,比如人造器官,克隆器官。
      K- s9 y) h& m& E+ i& Z( p2 I甚至从克隆人体内取走器官用于病患的治疗。
    ( u7 X. b. b( m. B" ?3 {; V+ w) T" @3 `2 N$ U4 y0 `
    生存是人类的第一需要,一切的一切的基础都是为了生存。  A) ]; {6 S/ |5 a( s! Y
    人类不应该指责大饥荒的时候的易子而食,因为那是为了生存。
    # ^5 k9 O; a: u$ M; i" P8 S& m+ |2 s0 M
    同理,人工智能,克隆技术,人造器官移植等,不应该受到宗教和伦理的阻碍。
    6 h! d3 H' R& m& B' w现在有人说是第四次科技革命爆发前夜,的确如此,但黎明之前是最黑暗的。. p3 W6 ?! r7 q, r* _' B  m. K
    自中世纪烧死布鲁诺以来,科学从未收到来自社会如此大的阻力。
  • TA的每日心情
    奋斗
    2020-3-6 05:11
  • 签到天数: 1432 天

    [LV.10]大乘

    59#
    发表于 2016-2-2 06:56:59 | 只看该作者
    AI一旦有了学习和自我改进自我复制的能力就恐怖了,这进化速度比起人类可不是一个数量级的,然后就会有天网,然后人类就没有然后了。。。

    该用户从未签到

    58#
    发表于 2016-2-2 00:53:23 | 只看该作者
    史老柒 发表于 2016-1-29 16:23
    + B( C5 z8 c/ o4 {$ D9 {- T0 W我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。+ v- V+ e- a- |9 b
    ' T3 P) Q3 S4 U5 x/ l& U8 r! w
    只不过现在就说人工智能已经和人类 ...

    / S7 B4 r' j# \6 t2 m嗯,这是大概率的事件。瞎猜,真正高智商高自我认知的半人半兽(机器)类型的,大概在我们这一代就能看到。人类的伦理会必然发生大的改变。
    ; e. y- y3 |, Y8 H3 f3 ]' `* r! x" G. Y/ R
    和历史一样,最先进的东西首先会用到军事上。也许美军最精锐的特种力量,已经开始有实战化的机器人伴随了。

    该用户从未签到

    57#
     楼主| 发表于 2016-2-1 22:57:39 | 只看该作者
    goon马甲 发表于 2016-2-1 02:18
    4 `* z+ Z+ x, U7 i以前技术基础不够呢,现在可是实实在在的。要不然Stephen Hawking也不会跳出来说话了 ...

    . V9 _& q1 i1 ?Stephen Hawking是人不是神,他的专长是理论物理,不是人工智能。
  • TA的每日心情
    郁闷
    2017-8-30 00:17
  • 签到天数: 321 天

    [LV.8]合体

    56#
    发表于 2016-2-1 18:45:44 | 只看该作者
    goon马甲 发表于 2016-2-1 16:40
    6 \7 S: m  N9 Z看你怎么定义新物种了。人类就剩个大脑,其他部分全部机械化。或者大脑都没有了,变成matrix。广义上都是 ...
    & |3 `$ V0 o% P3 @
    我非常怀疑“人脑思考的功率是20瓦”,如果是这样,减肥应该很容易吧?

    该用户从未签到

    55#
    发表于 2016-2-1 16:40:56 | 只看该作者
    燕庐敕 发表于 2016-1-31 15:21" r! K6 r' v% l) [
    你指出了可能另一种半机器半人的融合途径,是新物种统治地球?类似人从古猿变来。 ...

    ! Q7 c% w( p! h0 i) ]7 x1 W看你怎么定义新物种了。人类就剩个大脑,其他部分全部机械化。或者大脑都没有了,变成matrix。广义上都是半人半机器的融合。只是这个变化时间上会比人从古猿过来快得多得多
    ; N4 r" W: q. [% [, H4 O( G' N
    8 C) y4 h( W& r+ m- c9 w
    3 W. U5 z; n" j  ^关于人机融合,可以换个角度去想想。50公斤的人走路大概15瓦,等重轮式机器走走,也差不多可以达到。人脑思考的功率是20瓦,比较一下现在超级计算机的功耗。从进化论的角度看也有这个必要。
    7 p( m1 `, X9 i& t6 I7 g9 S# h$ x* L9 ]6 l8 S
    2 S# Y3 P! P4 r7 F! v' L0 ^

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2024-5-15 10:46 , Processed in 0.063601 second(s), 29 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表