燕庐敕
发表于 2016-2-2 09:48:17
本帖最后由 燕庐敕 于 2016-2-2 12:11 编辑
懒厨 发表于 2016-2-1 18:45
我非常怀疑“人脑思考的功率是20瓦”,如果是这样,减肥应该很容易吧? ...
我也觉得大脑是个很高效的器官
code_abc
发表于 2016-2-2 09:57:33
冰蚁 发表于 2016-1-29 22:48
永动机是物理定律给限死了。AI 有什么物理上的限制?
貌似还真有,至少图灵机方式的计算机和强AI好像是不可行的。
油老板
发表于 2016-2-11 11:57:26
人工智能之所以还没有超过人类,主要原因在于3个方面:
1计算能力还不够强
2感知
3编程方法
1计算能力相对人脑的上百亿神经元来说还是太弱,目前的观点是超级计算机已经可以达到人脑的千分之一。随着计算能力的进步,未来20年赶超人脑不是问题。
2感知
人类思考的一个主要动力在于感觉器官给予人类大脑源源不断的信息刺激。但是目前的人工智能不能有效感知。这些刺激包括五感和书面语言。五感的识别能力的突破不存在理论上的问题,主要是受制于计算能力。语言认知的限制很大程度上是受计算能力和传感器的限制。比如计算机没有连接味觉识别系统的时候,没有办法识别味觉。但是这个不是问题。比如我们发明一种传感器,可以迅速分析食物的成分,然后设定一系列指标:比如甜度超过多少是过甜,盐分超过多少是太咸。
传感器的进步,对于分析识别结果的定义,这些都是可以做的,不存在障碍,这些做好以后可以为下一步价值判断和模拟人类思考模式做准备了。
3编程思路问题
这个是哲学问题,但是并不需要非常高级的哲学。主要是需要定义好价值观和情感。
先说情感:
人的大脑是有两套工作模式的,情绪控制的I型和理性思考的II型。
情绪我们可以姑且定义为喜怒哀乐四种,当然不同的编程者可以自由定义。
我的定义方法是先简单分成3类,正面的,负面的和其他。
正面的包括可以获得更多资源(现实性及可能性),有利于繁殖,获得正面的评价和情绪。。。。
负面的与正面正好相反。。。
未定义的为其他。
只要明确了情绪的定义,下面就可以做一个情绪系统,根据传感器的信息来做出反应。
最简单的例子当人类用户输入“我喜欢你”,计算机判断是正面的情绪,所以也反馈一个笑脸表情。
这个例子可以适当升级,计算机在识别技术的高级阶段,可以从网络视频里寻找一个归类于开心的动图,表情包,视频。。。然后显示在屏幕上。
大数据时代可以再次升级,根据用户的年龄习惯,爱好,给出一个反馈,比如给宅男以苍老师的微笑,给宅女以吴彦祖的微笑。
然后还可以继续升级,在传感器能够收集并识别足够的信息以后,计算机可以做出判断:你看起来不太开心?
这个判断基于传感器传回的下列信息:
a用户散发的气味表明他3天木有洗澡
b面部表情有80%概率和符合不开心的典型表情
c打字时候10次输入有3次使用退格键,低于一般正确率
。。。。
这样机器智能就可以在很大程度上模拟人类情感了。通过类似价值网络的学习,完全可以做出情感表达网。
再来说创造性:
这个是目前争论的焦点,就是机器有木有可能学会创造和自我思考。
我觉得这个主要是编程方法问题。
人的创造发明是有规律的
发现需求--寻求方案--评估并选择最佳方案--实现
这里面并没有不可以被定义的部分,也就意味着没有理论上的限制
a需求
需求可以分两类:自发的和外界给予的。
给定命题求结论这个已经没有问题了。
内在需求其实也木有问题,只是涉及哲学和伦理了:
我们可以赋予一张价值观的网络作为计算机自我评估结果的基准:
比如生存:物种的延续
发展:新的系统/产品比前代更好。好的标准包括更少的资源消耗,更多的功能,更低的成本。。。
存在目的:计算机的存在是为了帮助人类更好的发展。(当然人类的定义是需要明确的)
存在任务:探索更好的方法解决人类的需求。(需求也是要定义的)
定义好价值判断网络以后,计算机就可以进行创造和发明了。
比如只要有足够的信息,计算机可以自主探索基因治疗的方法。
科学研究和工程在很大程度上是非常结构化和程序化的,只要给定精确的目标,分解任务,收集足够的信息,就可以做出比较准确的判断。
我们可以训练神经网络从事具体的科研活动,比如自主定理证明。
在传感和控制技术成熟以后,可以训练神经网络自己进行实验,并分析结果。
从事具体工作的各种神经网络成熟以后,就可以和价值判断网络结合,从事自主创造发明活动了。
意广才疏
发表于 2016-2-24 15:37:08
晨枫 发表于 2016-1-29 22:31
我认为从哲学层面上来说就是不可能的,就像永动机一样。不过现在还没有人在理论上证明必然还是不可能,先 ...
哲学层面,如果你同意人的智慧完全来自于物理意义上人的大脑,而不是什么形而上的『灵魂』之类,那么没有任何理由说能够靠神经元通过突触互联互相传递电信号化学信号能够实现的东西,靠电子元件通过电路互联互相传递电信号就绝对不能实现。
工程实现层面,Alpha Go 之类的系统,灭掉人类围棋选手只是时间问题。我们可以把场景继续扩大,比如『突然之间改成更大的棋盘』之类,然则这只是一般化了原来的一些规则,使得规则描述的范围变大而已。这可以拖延人类被击败的时间,然而但凡是存在严格规则限定的游戏,依靠更强大的计算力量计算机迟早都是能够击败人类的 —— 如果把现实世界看做由客观物理规则限定的游戏的话,前景呼之欲出了,:lol:lol
一叶飞刀
发表于 2016-6-9 18:57:25
晨枫 发表于 2016-1-29 22:51
这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量 ...
现代物理学认为,能量和质量是物质的两个方面,即拥有质量,必然拥有与之对应的能力,质量增加,则能量增加。
现代计算机基于图灵有限状态自动机,永远都不可能产生智能。
晨枫
发表于 2016-6-9 21:30:19
一叶飞刀 发表于 2016-6-9 04:57
现代物理学认为,能量和质量是物质的两个方面,即拥有质量,必然拥有与之对应的能力,质量增加,则能量增 ...
能对图灵有限状态自动机展开谈谈吗?
四处张望
发表于 2016-6-11 13:18:37
燕庐敕 发表于 2016-2-2 09:48
我也觉得大脑是个很高效的器官
我记得接近300w
四处张望
发表于 2016-6-11 13:27:44
晨枫 发表于 2016-6-9 21:30
能对图灵有限状态自动机展开谈谈吗?
http://www.jianshu.com/p/bc2eec8dc115
我基本上同意这篇文章的观点。
有几个方面:
这种把计算机限定为使用逻辑,进一步说是数理逻辑,然后引入哥德尔定理。说明无法实现强AI。这种东西都很快会沦落到自我意识,主动性之类的哲学命题。
那么,现在计算机,举个例子,加个随机数芯片,你还能当是有限嘛?当然你可以说实际上有最大数,但是物理世界本来就未必是有无限的。
再比如,一个永远无法理解哥德尔的人,难道就不能称之为具有强智能嘛?
白春
发表于 2016-6-11 15:11:42
1、“哲学层面”是什么东东?“哲学层面”与物理学层面“有什么区别?仿佛哲学与物理学等是一个并列的学科。哲学可不是专业,严格地讲,”哲学层面“是一个可疑的表达式或提法。
2、不是很喜欢“人类智能”而偏好“人类心智”这个提法。
3、人类心智总是和人的欲望、价值、感受、理想、态度等联系在一起的,把人类爱情、做爱、争吵、生死等还原到生理层次,抑或物理学量子层次,我们就能解决我们的困惑吗,就能解决“我爱她而她不爱我”问题吗?能解决巴以问题,能解决中日钓鱼岛之争吗?
4、人工智能兴起,大概需要我们重新审视学习、推理、判断、感受、意识、反思等问题或概念,如机器人“学习”,小狗“学习”和人类学习区别何在?另外,一个机器人通过“欺骗”赢得另一个机器人的"爱意“,这个句子或表达式我们能理解吗?我们能否说,机器人虚伪、诚实、真诚?
5、规则的应用本身无规则而言,假如有规则可言,就会陷入无穷倒退的逻辑困境,规则的应用往往需要判断力、实践智慧或明智、向典范学习(徒弟按师傅怎么做的去做的)等。
6、AlphaGo涉及的推理是一种形式推理或必然性推理而不是经验推理或或然性推理,如想想数学推论与夫妻间吵架时一些匪夷所思的推论就可以看到两种推理的一些区别,或者想想,把蛋糕一分为二和人与人之间是平等的,经验推理要涉及我们感受、价值、世界观、制度、文化-社会-历史才有可能进行下去,而形式推理则不需要,1+1=2对中国人和美国人是一样的。
7、机器和人工智能的兴起,男人危矣,在我的理解中,男人的能力、勇敢、英雄气概很大部分都跟男人的身体在生理上优于女人连着,男人对女人的身体优势现在可以被机器取代了,那么男人该如何展示勇敢、英雄气概?凭什么来吸引女人呢?男人危险啊!
一叶飞刀
发表于 2016-6-14 22:22:49
晨枫 发表于 2016-6-9 21:30
能对图灵有限状态自动机展开谈谈吗?
有限状态自动机在数学上,是一个五元组:{ s0,F,S,C,se},其中s0是系统的初始状态(这个初始状态,如果是80x86的话,则大致可以理解为所有寄存器=0,指令寄存器=0,代码段寄存器全部置高位),F是状态转移函数,可以表示为F(s,C)=s,两个s不同,均属于集合S,可以表达为当前状态接受一个“字符”(信号),系统会跃迁到一个新的状态。C是可接受的“字符”集,对于现代计算机而言,“字符”可以理解为内存传过来的高低电平。se:终止状态,即停机。
上个世纪50年代的祖宗级计算机很明显:系统有初始状态,然后根据输入的纸带的符号(有无空)来决定系统的下一个状态。当代的计算机极为复杂,但是其原理,依然没有逃离有限状态自动机。比如其状态是有限的(寄存器+内存的位数总是有限的,无论你如何扩充),即使由于使用伪随机数,让其表现可能有一些随机性,但是如果你尝试足够多次,其模式会重现,可以参考抽屉原理。
人工智能,首先要定义智能,问题是,人目前从哲学上定义智能/智慧/意识尚且困难,如何能人工模拟智能?智能的核心可能是自然语言,比如要是一只鸡会讲话,我们下叉子吃它怕是会有重大心理压力。就目前而言,对自然语言的理解,好像没有什么进展。花生医生答脑筋急转弯,仍然用的是模式匹配,而并非对语言的解析,那些通过图灵测试的聊天软件,应该也是同样的原理。
图灵测试:接到QQ发来的信息,仅通过与其聊天,判断是否是人还是软件在生成聊天信息,如果成功的骗过了人,则通过测试。如果只给你狗李大战的棋谱而不告诉你谁持黑,如果你无法明显分辨,则阿法狗通过图灵测试。
关于人脑的功率,现在食品包装上有能量信息,后面有一个百分比,就是指该能量占推荐能量摄入的比例,所以可以反算推荐能量摄入。据说安静状态下大脑功耗占40%,推荐的能量摄入显然不是安静状态,假如按20%计算,262/0.03=8733KJ,8733*0.2=1746.6KJ=1.7×10^6,一天大概9万秒不到,则功率差不多就是20瓦
一叶飞刀
发表于 2016-6-14 22:24:55
四处张望 发表于 2016-6-11 13:27
http://www.jianshu.com/p/bc2eec8dc115
我基本上同意这篇文章的观点。
有几个方面:
准确地讲,是伪随机数,计算机科学不承认计算机能产生随机数,别说是一般游戏用的随机数,就算是密码技术中的随机数,也依然是伪随机数
四处张望
发表于 2016-6-15 09:14:08
一叶飞刀 发表于 2016-6-14 22:24
准确地讲,是伪随机数,计算机科学不承认计算机能产生随机数,别说是一般游戏用的随机数,就算是密码技术 ...
随机数芯片可以是外部输入的,谁说计算机科学就不承认了。举个例子,一个计算穿过芯片的宇宙射线的芯片,算不算随机?而且如果这些不算随机,难道人脑就有随机了?
loy_20002000
发表于 2016-7-28 00:45:56
本帖最后由 loy_20002000 于 2018-8-24 20:20 编辑
坚持一个中心两个基本点,两手都要抓,两手都要硬。