设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 1281|回复: 11
打印 上一主题 下一主题

[科技] 李子暘: 人工智能是不是下一個泡沫?

[复制链接]
  • TA的每日心情

    2022-1-1 00:00
  • 签到天数: 793 天

    [LV.10]大乘

    跳转到指定楼层
    楼主
     楼主| 发表于 2024-8-2 13:14:41 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
    人工智能是不是下一個泡沫?

    李子暘

    01

    很多人認為,人工智能(AI)是下一場技術革命,就像蒸汽機、內燃機、電動機、電腦那樣,人工智能將徹底改變乃至顛覆世界。

    尤其是2022年下半年問世的ChatGPT,被寄予厚望。人們認為這種“生成式”超級智能,將在很多領域取代人類。樂觀者認為,GPT將空前地提升工作效率;悲觀者則認為,GPT將無情地砸掉很多人的飯碗。

    尷尬的是,樂觀者和悲觀者可能都表錯了情。GPT問世已經一年多將近兩年了。儘管各大巨頭砸了上萬億美元去“訓練”它,但除了幫助碼農提升一些寫代碼的效率以外,GPT沒有找到任何一個真正有意義的應用領域。至於大幅提升社會效率,更是鏡中花水中月,虛無縹緲。

    顯然,人工智能讓大家失望了。

    從人工智能的概念提出來,我就不以為然。我認為,真正的技術革命只能是能源的突破和數量級的提升。使用什麼能量,使用多少,決定了人們能做什麼,而包括電腦、互聯網在內的信息技術,理想的情況下,充其量,也只是讓人們把事情做得更好——是優化,而不是革命。

    不過,我不是業內人員,對相關產業的發展,沒有第一手的信息,只能有個大概想法。最近,看到一些分析文章,是專業人員對人工智能的意見。他們同樣質疑人工智能的前景。他們甚至認為,已經花出去的萬億級投資,有可能造成下一個巨大的泡沫。

    其中很多說法,證實了我之前的想法。今天就來說說他們對人工智能是怎麼分析的。

    02

    第一,人工智能的成本非常高。英偉達的晶片、網路頻寬、電力消耗,還有工資很高的技術人員等等,都很貴。幹這一行,真是花錢如流水。率先提出GPT的OpenAI,每年運營成本高達85億美元,到現在已經虧損了50億美元。不知道這幾十億的窟窿,將來怎麼去填。

    谷歌、微軟、Facebook等行業巨頭,投資則更大,已經達到萬億。

    僅僅成本高,並不是問題,如果收入更高,再高的成本也可以接受。可是,人工智能的問題在於,那些它們聲稱能完成的工作,就算在技術上實現了,也往往是“低薪”工作。也就是說,即使人工智能在這些工作上取代了人工,也是在用高薪取代低薪,經濟上完全不划算。

    比如有些地方正在試驗的無人駕駛計程車。首先,訓練出“無人駕駛”就需要昂貴的晶片,其次即使忽略前期的研發成本,也不考慮技術上是否成熟,但日常的運行維護都要比它們所取代的計程車司機貴多了。

    有人會說,新技術初期成本高,不要緊,只要大規模推廣開,規模效應之下,成本就會大幅下降。

    這恐怕是一廂情願。而且,事實是,歷史上那些真正有價值的新技術,有可能需要巨額投資,但它們都是從一開始就“更便宜”,甚至“便宜得多”。

    清末中國引入電報時,發電報可是個奢侈品,一個字一兩銀子。發一封幾十個字的電報,就要幾十兩銀子,對普通人來說,那絕對是一筆鉅款,都夠買個房子了。

    但是,發電報其實便宜多了。從北京向上海發一封電報,不考慮暫態到達的速度優勢,只說成本,就比原來的驛站、八百里加急公文等等,便宜太多。所以,電報進入中國以後,迅速推廣。從清政府到軍閥,在這件事上,沒有誰守舊保守,拒絕新生事物。軍閥們甚至大打電報戰——互相發電報大罵。在全國人民面前發聲,沒有什麼方式比公開發電報更便宜了。

    電腦互聯網出現以後,也是立刻就有成本優勢。雖然買伺服器、電腦、鋪設光纜等等花費不小,但無論是電子商務,還是即時通信,都比傳統商務、長途電話便宜多了。

    人工智能,最大的尷尬就在於,它耗資巨大,但即使成功了,提供的也是高成本解決方案。已經投入了上萬億美元,要想把這些投資收回來,就要能創造出超過萬億美元的價值,也就是解決超過萬億美元的重要問題。可是,人工智能只能完成簡單的、低價值的工作——實際上,現在連簡單、低價值的工作都完成不了,至於那些複雜的、高價值的工作,比如治理國家、學術研究、指揮戰爭等等,想都不要想。

    所有的技術革命,核心本質都是大幅降低成本。古代,只有王公貴族,才能乘坐十幾匹馬拉的車。現在,普通家庭的小汽車,就有幾十上百匹的馬力。出行交通的成本,大幅度降低了。這才是技術革命。

    人工智能卻大幅提升了成本。原本用普通勞動力、簡單流程就能完成的工作,現在卻需要動用昂貴的晶片,雇用高薪的技術人員,經由複雜的程式,才能勉強完成。這不但不是什麼革命,連商業創新都算不上。

    原來用鐵鍋鐵鏟子就能炒菜,現在換成18K金鍋金鏟子,還是炒菜,還不如鐵鍋炒出來的好吃。這錢花的,不是莫名其妙麼?

    03

    第二,人工智能的發展,至今沒有找到有意義的應用領域。GPT出現的時候,人們暢想了很多應用前景,但將近兩年過去了,大家尷尬地發現,除了弄一些“諧趣圖片”,GPT沒有什麼真正有意義的實際應用,或者說,沒有什麼能真正創造出價值的應用。

    那些“諧趣圖片”,顯然沒有創造出真正的價值——無論是經濟效益還是社會效益,都沒多大——有多少人願意花錢買這些圖片呢?你用GPT給人畫這些“諧趣圖片”,能把電腦的電費賺回來麼?廣告公司用這些“諧趣圖片”給客戶設計,能大幅提升利潤嗎?

    其他的應用,比如幫助碼農寫代碼、綜述整理檔等等。這些事情,雖然GPT看上去可以做,但即使是一個簡單的文章要點概括,最後到底會出來什麼東西,誰也說不準,弄砸了,也無人負責。完全達不到實用、可靠的水準。

    領導讓你寫個會議紀要,你敢直接用GPT寫了交差麼?如果GPT寫完了,你還要花很多時間去檢查修改,那又何必多費這一道事呢?

    第四,從技術原理來說,GPT等人工智能技術,訓練“灌”給它們的資料,都是之前已經存在的資料,也就是歷史資料。既然都是歷史資料,這種人工智能說到底就是“炒冷飯”,只是把以往的信息重新排列組合。它沒有也不能創造出任何真正意義上的新信息。說GPT能取代人腦,八字還沒有那一撇。

    實際上,這其中的關鍵在於,對於人腦是如何思考的,人類目前知之甚少。腦科學還處於很初級、很粗糙的狀態。所以,人工智能並不是在模仿人腦——你不可能模仿你完全不懂的東西。人工智能的底層原理還是二進位——只能區分0和1的智力水準。這種底層原理決定了,人工智能和人腦智能,完全是兩碼事。人工智能本質上還是一種自動化機器,並沒有任何智能。

    第五,大家在訓練人工智能時,使用的都是英偉達的晶片,這就決定了,這是一個沒有“護城河”的行業。就算某人某企業取得一些進展,在某些領域成功應用了人工智能,大幅提高了效率,其他人也能很快趕上來。

    大家的工具都差不多,幹出來的活兒當然也就差不多。

    這就從根本上讓人工智能的商業基礎不成立——很難賺錢。已經投入的萬億美元,不知道怎麼才能收回來。

    04

    最後一點最有意思。這往往也是我們普通人的思維盲區。

    分析人士雖然很清楚,人工智能的前景堪憂,但他們說了這樣一句話:以往的經驗表明,泡沫的破滅,往往需要很長時間。所以,目前繼續保持投資,是對的。

    一般人的看法是,如果方向是對的,才值得投資。如果方向是錯的,就不應該投資,或者趕緊撤資。可專業投資人士卻加入另一個考慮因素,那就是,即使是泡沫,是馬上就要破裂,還是過很長時間才會破裂?

    如果泡沫馬上就要破裂,當然要趕緊跑。如果泡沫還要持續很長時間,那麼,在這期間繼續投資,繼續賺泡沫的錢,才是正確的策略。一直到發現破裂的跡象,再跑不遲。

    有人可能覺得這太冒險,但投資這一行,掙的就是擺弄風險的錢。風險承受能力不強的人,不適合幹這一行。

    對於我們一般人來說,避免投資失敗和財產損失,是最重要的,但對專業投資者來說,投資失敗,固然是損失,但錯過賺錢的機會,能賺的錢沒賺到,同樣也是損失。有錢人把錢交給他們去投資,不是為了安全為了省錢——那樣銀行定期存款最好。有錢人委託他們投資,為的就是賺取超額利潤。如果攥著錢不敢投資,那他們就會被趕出這一行。

    理解了這個道理,也就理解了,投資興旺與否,與行業本身的發展前景,並不完全一致。投資者的邏輯,和技術發展的邏輯,也不是同一碼事。我們不要因為看到萬億級的投資,就認為行業一定會有光明的前途。

    從整體上來說,人類目前在科技發展上“撞牆”了。無論科學家們怎麼努力,也只能做一些優化和局部改進。能源升級意義上的突破,完全看不到希望。這種狀態,可能持續很多年——幾百上千年,也可能更長。畢竟,農業革命和工業革命之間的時間距離,長達萬年。

    守株待兔式的期待下一次技術革命,可能是當代人犯的最大錯誤。

    来自群组: 龙的天空

    评分

    参与人数 2爱元 +12 收起 理由
    pcb + 4
    helloworld + 8

    查看全部评分

  • TA的每日心情
    擦汗
    3 天前
  • 签到天数: 1552 天

    [LV.Master]无

    沙发
    发表于 2024-8-3 00:34:03 | 只看该作者
    他的很多意见都不值得一提

    评分

    参与人数 1爱元 +10 收起 理由
    indy + 10 淡定

    查看全部评分

    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    奋斗
    2024-3-8 05:45
  • 签到天数: 2441 天

    [LV.Master]无

    板凳
    发表于 2024-8-3 05:48:45 | 只看该作者
    你要说美国的发电量是AI研发的制约因素我信,要说AI无用那是扯淡。
    最近两个月我跟ChatGPT, GitHub CoPolit紧密合作,写代码可快了,基本上做到了我写段落大意,它完成代码,又快又好

    评分

    参与人数 2爱元 +16 收起 理由
    helloworld + 6
    indy + 10 谢谢分享

    查看全部评分

    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2022-1-1 00:00
  • 签到天数: 793 天

    [LV.10]大乘

    地板
     楼主| 发表于 2024-8-4 23:17:07 | 只看该作者
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2022-1-1 00:00
  • 签到天数: 793 天

    [LV.10]大乘

    5#
     楼主| 发表于 2024-8-8 22:17:33 | 只看该作者
    美國人工智能泡沫何時破滅?

    汪濤

    美國是一個非常善於製造泡沫的國家。因為美元霸權要獲利就是靠吹泡沫,吸引大家跟泡沫,然後它又引爆泡沫把別人的財富都炸沒了,那財富都跑到哪裡去了?肯定就是跑到能提前知道泡沫什麼時候爆炸的人口袋裡了。

    為什麼那麼多人在美國吹泡沫的游戲裡會一再地上當呢?因為它吹起來的大多數都是高科技的泡沫。這個不僅一般老百姓搞不懂,連大多數專業人員都很容易搞不懂。原因在哪裡?因為大多數高科技泡沫的科技本身確實是有一定價值的,只不過在金融上估值被吹得過高了。看得懂技術的未必看得懂金融,而看得懂金融的又未必看得懂技術。美國人就是利用這個一般人的知識漏洞或缺陷兩邊騙。為什麼我能看清美國的高科技泡沫呢?因為我本身是搞技術的,搞了一輩子,另一方面我也精通金融。要想看清美國製造的泡沫,你就得兩個方面的知識都要精通才行。

    現在我們就來簡單回顧一下美國製造的一些泡沫,以及現在的人工智能泡沫。美國製造的著名高科技泡沫就是2000年後破滅的互聯網泡沫。互聯網本身當然是有價值有道理的,但在20世紀90年代被過度炒作了。要想區別什麼是高科技泡沫,識別出炒概念,可以先區別這個概念是從技術角度起的名字,還是從市場角度起的名字。例如數據庫、關係型數據庫、分布式數據庫、網格計算、虛擬現實、增強現實、語音識別、圖像識別、人臉識別、CDMA(碼分多址)、TD-SCDMA(時分同步碼分多址)等,這些就是從技術角度起的名字。但數據挖掘、大數據、雲計算、元宇宙、UMTS(通用移動通訊系統)、LTE(長期演進)、人工智能、大模型、通用人工智能、生成式人工智能AIGC等,這些就是從市場宣傳和營銷角度起的名字。如果是從技術角度起的名字,它們的定義和描述一般都會比較清晰,但缺點是很多普通人可能就不敢去談太多,因為搞不懂技術,怕一談就出錯、露餡了。而從市場營銷角度起的名字,概念本身往往很含糊,沒人說得清它到底是什麼,好像有所指,好像什麼都是,也好像什麼都不是。什麼都不是的概念有一個特別大的好處,就是什麼都可以是,誰都可以說上幾句,都不好說算錯。所以,這種概念就特別容易炒作,而專業技術人員往往也頭暈,不敢去說各種炒作有什麼不對。這樣一來所有人就都可以放心大膽地顯得自己很懂行的樣子去高談闊論了。因此,但凡你看到幾乎所有人都在放心大膽地談論的高科技概念,你就知道它們基本上屬於本質上可以歸於什麼都不是的概念。

    例如大數據,有人說得清大數據到底該如何定義嗎?基本上是沒人說得清的。剛開始是有定義的,數據量是多少,帶寬是多少,處理時間是多少才算大數據。可是很快就變得沒具體定義了,基本上就是只要有數據的全都是大數據。那就奇怪了,原來不是大數據的數據是什麼?你會發現沒有了,所有的數據都是大數據。所有人都放心大膽地在談自己要搞大數據。還沒有任何技術人員敢說人家說得不對。雲計算、元宇宙等都是這樣的概念。現在可以準確地告訴大家,人工智能也是屬於這種本質上什麼都不是的概念。你看有誰不敢談人工智能的嗎?沒有。無論是誰都可以來放心大膽地對人工智能說上幾句。但如果說“模式識別”,“卷積神經網絡”等,除了專業人員,普通人就不敢說話了。

    美國人炒概念有兩個原始動力,一個是投資技術的金融界,本身是為了自己的投資更順利地變現,所以會在合適的時機炒作相應的概念,把相應的市值炒得盡量高,這樣才好用盡量高的價格出貨,這樣才能賺更多錢嘛,這個很好理解對不對?另一個是整個金融界的戰略需要,要有一個特別大的可以支撐整個金融市場的高科技泡沫概念,不只是把某個技術或產品,而是要把整個美國匯率、美債、股市、債券給炒上去。互聯網、元宇宙、人工智能等就是屬於這種戰略級的高科技泡沫概念。為什麼人工智能是戰略級的高科技泡沫?因為現在的整個美國金融市場,幾乎都是寄希望於人工智能一身。整個美國社會的財富大多數都在股市上,而美國股市近幾年絕大多數的漲幅是靠所謂七姐妹支撐起來,而七姐妹股價的上漲又都是靠人工智能概念。尤其是居於核心位置的英偉達的股價支撐的。

    其中的奧秘和泡沫之處在哪裡?這取決於人工智能技術的兩個最基本的特點。一個是人工智能特別吸引人,同時又非常含糊。二是現在的人工智能在技術上都是一種概率性的統計結果,不可能有很高的可靠性、成功率和正確率。

    不要去聽外行的暢銷書作者或大V說的任何預測,如果違反了最基本的技術規律,那些都是不可能成為現實的。人工智能可以說是被炒作時間最長,一再泡沫破滅,又一再被吹起來的。因為智能這個概念一方面對整個社會大眾都太有吸引力、甚至是永久的吸引力,因為人類最自豪、最得以在生物界立足的本事就是人類的智能。其他很多方面可能都不如別的生物。另一方面,智能是什麼又特別模糊,這就有了最大的發揮想象力的空間。美國未來學家雷蒙德·庫玆韋爾特別喜歡對人工智能的發展進行預測,并且在2005年時寫了一本書《奇點臨近》,其中提出到2045年,人工智能的奇點將到來,這個很容易讓人浮想聯翩。雷蒙德·庫玆韋爾的確預測准了很多事情,但如果你了解一些本質性的東西的話,就知道他在計算機技術或人工智能技術上的很多預測根本就不算什麼了。因為最基本的芯片發展的摩爾定律,這個本身是非常准確的。依據這個定律,任何人都可以准確地預測到未來10年、20年甚至30年以後計算能力在什麼水平,以這個水平來分析可以實現什麼功能,就可以給出非常准確的預測。但是,不要以為有這些基礎了,就可以隨意做出無限的預測。

    首先是摩爾定律本身就因為接近物理極限而越來越慢下來,所以,如果再簡單地按原來的摩爾定律去進行預測就會出現越來越大的偏差了。

    第二個方面,是人工智能的概率性技術本質問題。現在所有的人工智能,從實現算法上來講主要可以分為三個流派,分別是符號主義、連接主義、行為主義。這些技術細節外行人很少能深入分析清楚,我們此處也不去展開討論,網友們如果不了解也沒關係。只要能明白一點就可以了:現在所謂的人工智能,包括現在炒得最熱的大模型等,本質上都只是一種概率性的統計分析。這帶來相應的一些非常深刻的技術約束:

    一方面是可靠性的限制,所有的人工智能結果都只是一些概率性的結果,其可靠性會嚴重受限。例如用人工智能去回答任何問題,你總會發現有一定概率出現所謂的“幻覺”。如果用人工智能來進行各種識別,也總會發現有一定的差錯率。例如語音識別,總會有一定的差錯。并且問題稍微複雜一點,例如說話不清楚、有停頓或有背景雜音,識別率就會指數級地迅速下降。無論是語音識別,車牌識別,人臉識別等,識別率基本上都是在0.5%到5%的水平。能做到1%就已經是非常好的水平了。人工智能可以應用於一些對可靠性要求不是太高的業務上,例如生成個領導講話稿,怎麼說都不算錯,或者生成個主要是講套話的歡迎詞,這些問題不大,但不能輕易用於可靠性要求比較高的業務上。例如給病人開刀,讓人工智能機器人用煤氣竈炒菜等。不是它能不能做這種事情的問題,你讓他秀一下相應的功能是可以的,真讓他幹,他一定會有很高比例差錯的。如果在醫院開刀做手術,本來是要治療有病的腎臟,有1%概率把好的腎給割了,這不要命嗎?用機器人在煤氣竈上做菜,秀一下是很漂亮,可實用中搞不好有千分之1的概率煤氣竈不關,把房子給炸了,這不麻煩嗎?動輒出點錯就要命、還必然有相當概率出錯的事情,那就不敢讓他幹了。所以,別看很多秀機器人像人一樣做菜的,那種沒法實用。只有經過嚴格簡化的,用電爐子炒菜的機器,比現在洗衣機差不了太多的機器才有可能真正普及。

    第二個關鍵的問題,就是人工智能的實際能力提升極為緩慢。隨着計算能力的提升,其可靠性和能夠應用的業務會增加。但一定要明白,因為業務複雜度提升對應的計算能力需求也是指數級提升的。一萬倍的計算能力提升,可能只會帶來人工智能可靠性和業務能力百分之十幾,甚至只有百分之幾的增加。所以,人工智能的發展不可能是某一天出現一個指數上升的奇點,而永遠是接近越來越緩慢爬坡的發展。今天人們熱議的所有人工智能的應用,40年前甚至更早全都有,全都有人秀過,只不過外行人可能不知道而已,這些應用在過去幾十年裡我都見到過幾十上百次,一點都不稀奇。今天語音識別業務能力與30年前相比,提升的幅度事實上極小,只是這極小的提升,足以帶來相應的實用化而已。但如果要客觀嚴格地評價語音識別,會發現其差錯率、尤其實用環境下的差錯率依然非常高。

    因為現在摩爾定律越來越遇到理論極限,所以實現相同計算能力提升就得拼更多的耗電量。以前的計算能力翻番增長是在耗電量不變前提下實現的,但現在動則釆用液體冷卻,耗電量成倍增長。這個并不是解決問題的根本辦法。但是,現在美國通過炒作人工智能大模型,和奇點概念,讓絕大多數人都非常焦慮和擔心落後,紛紛去投入大模型的研究,這就得購買越來越多的英偉達芯片。英偉達芯片的銷量翻番地上去了,他的利潤翻番地上去了,股票價格翻番地上去了,核心的人工智能概念股票和項目市值都翻番地上去了。但它們能夠實現的真正業務應用不可能翻番地上去。一萬倍算力提升,能實現的真正業務提升不會超過10%。這個很快就會遇到瓶頸的。并且因為摩爾定律的限制,這種不顧及耗電量的計算能力提升也很快會遇到瓶頸的。一旦炒作不動,泡沫就瞬間破滅了。原來泡沫破滅是美國金融界準備好了,把別人忽悠進來,自己已經跳出去了,然後才引爆泡沫,可是現在進入泡沫圈子的外資還不夠,羊毛薅不到,泡沫就不得不破滅,這個就麻煩了。

    本帖子中包含更多资源

    您需要 登录 才可以下载或查看,没有帐号?注册

    x
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2022-1-1 00:00
  • 签到天数: 793 天

    [LV.10]大乘

    6#
     楼主| 发表于 2024-8-8 23:03:42 | 只看该作者
    indy 发表于 2024-8-8 09:17
    美國人工智能泡沫何時破滅?

    汪濤

    那一次次倒逼你的挑戰,事後看,就叫做目標,你一次次通關,事後看,靠得什麼?探索力。

    這是人類身上最強的能力。

    別說機器,哪怕是人工智能,具備的那個都只叫探索的實力而不叫探索力,因為它并不理解探索的意義。

    就像chatGPT,它可以和你對話,但它從來也不知道自己到底在說些什麼,它也不知道你在說些什麼。

    它只是根據大數據,從上一個字母來推演下一個字母,這樣一個一個字母推演出來,看看哪個排列組合可能更加迎合你,更加被你認可。

    這不叫思考,這叫討好,這叫看眼色,人工智能鍛煉的不是思考能力,是看眼色的能力。

    當然這已經構成對大多數勞動者的競爭威脅了,因為你的工作當中也不需要思考,你也只是在討好,看眼色。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2022-1-1 00:00
  • 签到天数: 793 天

    [LV.10]大乘

    7#
     楼主| 发表于 2024-8-9 19:34:59 | 只看该作者
    意識、心靈與人類生活——有關ChatGPT的一次訪談

    劉暢

    如果我們不想明天被GPT取代,不妨從今天起,學習自主思考,學習好好說話/劉暢

    ***

    劉暢老師是北京大學哲學碩士、德國Bielefeld大學哲學博士,現為中國人民大學哲學院副教授,主要研究領域為維特根斯坦哲學、分析哲學和心靈哲學等。

    1 ChatGPT與意識之謎

    Q1:ChatGPT引發了對人工智能心智問題的廣泛討論,一些人認為現今如ChatGPT這樣的人工智能已經具有意識。您如何看待這個問題?您覺得我們判斷意識存在的標志應當是什麼?

    劉暢:在我看來,有一條基本原則,可以稱它“自主性原則”:只有具備自主行為能力的生命體,才能有意義地談論它是有意識的還是沒有意識的。

    怎麼理解這裡說的“自主”?我們可以在自主的反應和自動的反應之間做一個區分。生命體同環境的互動中,有大量反應都不是自主的,而是自動的。比如我們已經知道,人類擁有一套相當複雜精妙的免疫系統,功能之強大,遠超人們之前的想象。但整個免疫系統都是在意識之下的層次,以自動而非自主的方式運行的。我們意識不到免疫系統的反應,也不能控制——至少不能直接地控制——免疫系統怎樣來做出反應。呼吸,多數情況下也是一種自動反應。

    有所不同的是,我們能意識到我們的呼吸。從而,我們也能自主地、有意識地調整呼吸,比如平衡呼吸的節奏,比如屏住呼吸。可以說,意識為我們提供了一個自主控制、自主選擇的反應空間。沒有意識活動之前,這個空間是不存在的。

    可能有一種誤解,以為意識活動存在的意義,就在於更好地趨利避害——比如疼痛會讓我們對傷害做出即時反應,保留創傷的印象,免得“好了傷疤忘了疼”。不過,沒有意識不等於沒有反應。遇到強光,瞳孔會自動收縮,避免強光傷害眼底,哪怕這時的我們處在無意識的狀態。人類的免疫系統能夠準確高效地識別有害的抗原信息,保留長達數十年的“免疫記憶”。說溜了嘴,我們可能也說免疫系統會“意識”到、“覺察”到抗原信息,但這其實只是說:免疫系統會對抗原信息做出一系列的“反應”。這類自動的、非自主的反應,普遍存在於一切生命體中。細菌、草履蟲這樣的簡單生物,也一樣能通過自動反應趨利避害,而我們不必據此認定,它們就要對刺激具有意識。

    陳嘉映先生有個說法,我覺得很有啟發,他說我們之所以意識到疼痛,與其說在於讓我們更有效地規避傷害,不如說在於讓我們有機會在規避傷害和忍痛前行之間,做一個自由的選擇。

    不錯,一個人若是由於疾病或其他原因喪失了疼痛感,他就不能基於疼痛感做出準確即時的反應,但這只是因為我們人類已經活在這個有意識的層次了。總不能說,人之所以長出手指,就是因為不長手指就刷不了手機……認定沒有疼痛感我們就不能對傷害做出反應,也是犯了類似的錯誤。

    一種反應是自主的,意味着它不只可以在原因的意義上問為什麼,也可以在理由的意義上問為什麼。你問我為什麼遇到強光就要收縮瞳孔?如果你問的是原因,這個問題有個答案,哪怕我自己并不知道。如果你問的是理由,這個問題就沒有答案,因為這本不是一個有意義的問題。收縮瞳孔不是我自主的、有意識的反應,我說不上是出於什麼理由才去收縮瞳孔的。瞳孔自顧自地做出了反應,而不是我在有意識地收縮瞳孔。也可以說,是瞳孔在反應,而不是我在反應。

    相反,你問我為什麼忍着疼也要走下去,我就有可能給出一個理由——比如規避更大的風險,比如榮譽和尊嚴,等等。不論哪一種理由,都不能完全還原為推動身體做出如此反應的致動因。

    在這一點上,ChatGPT和我們區別了開來。它沒有自主性的反應。它做出的所有操作,如果說得上有個為什麼的話,只有因果機制意義上的為什麼。如果貌似有個理由,這個理由最終也會坍縮為原因。所以要我來看,ChatGPT還談不上有意識,這個事實還挺清楚的。

    Q2:您剛剛提到自主性與自動性的區分,但有可能特定的功能疊加起來後,就形成了意識。而且自主性也可能并非超越自動性,二者可能是處於同一范疇的概念,都只是一些基礎認知功能疊加起來後表現出的形式,關於這種觀點,您怎麼看?

    劉暢:你提到的幾點我都挺贊同的。我也願意強調,不論自主的反應,還是自動的反應,都可能是從足夠複雜的功能系統中涌現出來的。如果我們相信達爾文,那麼我們的這套複雜精妙的免疫系統,應該就是從億萬年的演化進程中涌現出來的。我們也知道,ChatGPT在語義、邏輯方面表現的出色能力,同樣是“大力出奇跡”的結果,而不是軟件工程師一開始就設定好的。僅着眼於“涌現”,并不足以把自主和自動區別開來。

    我也同意,自動反應和自主反應在某種意義上可以相互轉化,二者并非處處都有一道清晰的界線。像前面提到的,呼吸一般是自動反應,但一定程度上,也可以得到自主地控制。我們的自主反應也可能轉化為自動反應:聽到熟悉的指令,我們就下意識地做出條件反射式的動作。不論自主的或自動的反應,也都可以細分為若干不同的層級。機械鐘的自動報時和生物鐘對睡眠的自動調節,顯然不是同一層次的自動反應。

    我同樣不願意說,人類心智與人工智能的差別,就在於自主的反應總比自動的反應在功能上更為強大。

    實際上,我一直覺得人工智能的討論中有一個誤區,好像只有人工智能全面地、徹底地戰勝人類智能之後,它才配在真正意義上具有意識。這類“以成敗論意識”的邏輯顯然在哪裡出了問題。照此來講,不只現有的AI不配有意識,現有的人類個體恐怕也沒有哪個配有意識。我們中有誰敢說在所有智力領域都勝過了其他所有人呢?哪怕你擊敗了跳棋冠軍、象棋冠軍,你還沒擊敗圍棋冠軍呢!哪怕你高分通過了律師考試,你還創作不出蒙娜麗莎呢!……但我們要問的是人類和AI有的是不是兩種不同類型的智能,而不是評選哪個才是“最強大腦”。

    這裡的關鍵點在於,“自動”是一個功能性概念,“自主”卻不是。自動和自主,都有“自行其事”的特徵,卻是在不同層次上的。從我的語感上講,一個人具有自主行為的能力,說的顯然不是他具有自主行為的“功能”。功能總是某種達成目的的手段。一個功能系統是自動的,表現在它會自行完成達成目標的操作。比如,一台裝有防抱死系統的汽車可以根據速度傳感器的信號,自動調節制動模式。機器的自動化、智能化,都是在純功能的意義上講的。

    自主卻體現在對目標的自由選擇上。人工智能不具備自主性,不在於它不具備自主的功能,而在於它不具備自主的資格。我們不容許它在目標制訂的層面取代我們。注意,這說的并不是在技術層面,我們總能確保對AI的精準控制,不容其“越雷池一步”。假定,AI代替我完成了購物操作。如果這是它因為我預先的指令而完成的自動操作(我的指令也可能極籠統),這步操作就應當被認可——它訂的東西就應當算作我訂的東西,哪怕我會改變主意,就像我自己購物時也會發生的那樣。而如果是AI自己在“擅做主張”,且不管導致這一故障的起因是什麼,這步操作原則上就是不會被認可的。它的決定不可能替代我的決定。這種“不可能”,來自規範的限制,而不是功能的限制。

    實際上,只要我足夠任性,我完全可以給AI做出“隨機購物”的設定。技術上這是極易實現的。但這當然不意味着AI就因此“涌現”出了自由意志。

    Q3:回到一開始的討論,您談到意識的自主性原則時,說只有生命體才可能具有意識。掃地機器人沒電的時候也能自己跑去充電,這和生命體的覓食活動很類似。我們也可以認為AI是一個生命體嗎?或者,因為ChatGPT不具有物理形體,所以不具有意識?

    圖片《人工智能》(2001)

    劉暢:我更願意從目的、手段的區分來理解AI和生命體的差別。所有生命體都有一個內稟的目的,即生命自身的延續。這是生命科學對各種各樣的生命現象做出解釋的基點。而AI屬於廣義的工具。工具沒有內稟的目的。它作為達成目的的手段存在,它要達成的目的是我們為它設定的。智能掃地機器人帶有自動充電的功能,這個功能的存在當然是為我們服務的。構成生命現象的種種自動反應也具有這樣那樣的功能,但這些功能服務於生命的目的自身。

    往大裡說,這在於工具和生命體的存在論地位不同。就像海德格爾舉的例子:當我們起勁地用一把錘頭捶打東西的時候,它才特別地“是”一把錘頭。如果它被報廢了,不再作為捶打工具存在了,它就不再作為錘頭存在了。我們也可以借助生命體的某些機能,間接服務於我們的目的。我們可以生產雙歧杆菌,服用雙歧杆菌,幫助我們消化。但就算不被應用於這樣的目的,雙歧杆菌還是雙歧杆菌。

    胃腸的蠕動、消化液的分泌在無意識的層面服務於我們,生產、服用益生菌在有意識的層面服務於我們,這二者的區別前面已經說了不少了。但換個角度看,生命體的自動反應其實跟生命體的自主反應更相似,而與AI的自動反應有質的不同。理由很簡單:AI根本上是為了我們的目的而存在的,所以它壓根不可能具有真正的自主性。不論它有或沒有一個物理的形體,都是如此。

    2 哲學與心靈哲學

    Q1:您用自主來解釋意識,但我覺得,自主和意識在您那兒似乎是一對相互解釋的概念,不論哪一個,似乎都還沒有得到清楚的定義。您所做的是不是一種循環定義呢?

    劉暢:好問題。我個人的想法是這樣的:在人工智能或是其他話題上,哲學能夠貢獻的其實是一種反思。哲學與其說是要教會我們去理解那些我們還不理解的東西,不如說是要和我們一道去理解那些我們向來已經理解的東西。所以,我更願意把哲學的工作叫做一種“元理解”——對我們已經理解的概念的一種再理解;而不是,比方說,去發明一堆我們自己都還不理解的概念。

    人工智能是個交叉領域,不同學科各顯其能。但哲學與其他學科的一個重要區別在於,像計算機科學、腦科學或其他涉及工程技術的學科,所要做的是為我們提供嶄新類型的知識,而這勢必就要涉及新概念的引入和定義;哲學所要做的卻是在這個新語境下,重新思考困惑了我們幾百上千年的老話題,比如什麼是心靈?什麼是意識?

    這個意義上,正因為像“自主”“自動”“原因”“理由”“目的”“手段”等等是我們本來就在使用、就已理解的概念,是不需要格外加以引入和定義的,對這些概念的考察才成其為哲學家的任務。并且,也是哲學家責無旁貸的任務。

    圖片《黑客帝國》(1999)

    如果你把對這些概念的考察叫做“循環解釋”“循環定義”,聽上去可能就挺負面的。我們不妨用個更中性的提法,就把這叫做解釋性的工作。我們用我們已經理解了的概念,去解釋我們對另一些概念的理解。而這在形式上的確就有可能出現我們一會用概念A來解釋概念B,一會又用概念B來解釋概念A的情況。這不見得就是多麼要不得的做法。因為如果概念A和概念B在我們這兒本來就是有其用法的,它們的用法本來就是相互交織的,那麼我們所做的,實質上就是結合概念A的用法,來演示概念B的用法,或者反過來,結合概念B的用法來演示概念A的用法。

    反正,這不是單拿一個字眼去跟另一個字眼對應,而是通過概念的實際應用,來展現概念的實際涵義。這其中不存在什麼惡性循環。

    當然,這類在概念層面上展開的反思,就像我們在其他地方從事的反思一樣,從來都不只是照抄、重復,而是要換一個視角,對那些既有的、很可能似是而非的觀念做出調節、整頓、糾正。這個過程中,我們可能會調用五花八門的知識,設想概念得到應用的多重可能情形,但從原則上講,我們的目的并不是要創造乃至捏造新的概念,而只是要讓我們既有的觀念系統更有序一些,更健康一些。

    Q2:您提到原因和理由不能相互覆蓋,但怎樣界定這兩個概念,似乎還是比較模糊的。在有關意識的問題上,怎樣理解它們不能相互覆蓋的關係呢?

    劉暢:是的,原因和理由的確是個更大的話題。我僅就個人的理解再作兩點局部的澄清吧。

    首先,我們關於理由的知識是一類自我知識,這與關於原因的知識有本質的不同。受到這樣的刺激,我的腦神經系統為什麼就會做出這樣的反應?這問的是原因。問題的答案是什麼,由腦科學家說了算,而不由我說了算。感受到了疼痛,我為什麼還要繼續走下去?

    這問的是理由。答案是什麼,原則上由我說了算。我給出的理由是對我所思所感所作所為的一種組織,而所有這些都是我既已意識到的。理由總是存在於意識場中的一種關聯。

    當然,心理分析學家也可能挖掘出我自己仍未意識到的一種深層關聯,引導我發現這樣做的“真正理由”是什麼。但在這個問題上,弗洛伊德本人的一點提示我認為是
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2022-1-1 00:00
  • 签到天数: 793 天

    [LV.10]大乘

    8#
     楼主| 发表于 2024-8-9 19:38:34 | 只看该作者
    indy 发表于 2024-8-9 06:34
    意識、心靈與人類生活——有關ChatGPT的一次訪談

    劉暢

    本帖子中包含更多资源

    您需要 登录 才可以下载或查看,没有帐号?注册

    x
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2022-1-1 00:00
  • 签到天数: 793 天

    [LV.10]大乘

    9#
     楼主| 发表于 2024-8-10 09:24:37 | 只看该作者
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2022-1-1 00:00
  • 签到天数: 793 天

    [LV.10]大乘

    10#
     楼主| 发表于 2024-8-10 09:25:20 | 只看该作者
    indy 发表于 2024-8-9 20:24
    https://mp.weixin.qq.com/s/0quRK-akFfZtNARvrnbUzg?fbclid=IwY2xjawEjoIhleHRuA2FlbQIxMQABHVJeAoavNmDmA ...

    [color=rgba(0, 0, 0, 0.9)]我们研究大脑怎么做抉择,这也可以探索我们到底有没有自由意志这个东西 | 杨天明 一席第698位讲者[color=rgba(0, 0, 0, 0.3)]Original [color=var(--weui-FG-2)]杨天明 [color=var(--weui-LINK)][url=]一席[/url]
    2019年07月20日 10:02
    [color=var(--weui-FG-HALF)]

    杨天明,中国科学院神经科学研究所研究员。

    自由意志归根到底它是一个抉择的问题。我们研究抉择,我们去看抉择是怎么做出来的,是由外界刺激造成的,还是外界刺激加回忆,还是再加某些我们说不清楚的东西造成的抉择,可以帮我们探索,我们有多大程度上存在,或者不存在自由意志这个东西。




    你在做抉择的时候,
    大脑是怎样工作的?

    大家好,我是来自中科院神经科学研究所的杨天明。
    我们都知道大脑是一个非常神奇的机器,它可以在非常复杂的环境当中,利用一些模糊的信息来帮助我们做抉择。想象你在一个非洲草原上,一堆杂草后面突然出现一个阴影,你的大脑需要在很短的时间里,判断这个阴影是一个凶猛的野兽,还是一个没有任何威胁的小鹿,然后你可以做出决定,应该逃走还是继续游览。


    这种能力帮助我们在千百万年的进化过程中存活下来,但我们目前对它的了解却很有限。这就是我今天要跟大家聊的主要内容。
    我们知道大脑分成了很多不同的区域,有些区域负责视觉,有些区域负责听觉,那大脑中是不是有一个区域负责我们的抉择呢?是不是如果这个区域受到损伤,我们就没办法做很好的决定呢?
    为了解答这个问题,我们先从一个神经科学界的历史名人说起,他的名字叫做菲尼斯·盖吉。
    盖吉是19世纪的一个美国铁路工人。大家肯定觉得很奇怪,一个铁路工人为什么会变成神经科学领域的名人呢?这是因为有一年,他在工地工作的时候很不幸地发生了一个事故,他装填的炸药突然爆炸了,他手里的一根铁棍因为爆炸飞出,穿过了他的整个头部。这是他事后拍的一张照片,他手里拿的这根就是当初穿过他头部的铁棍。


    后来医生、科学家重建了当时发生的场景,发现这根铁棍是从他的眼眶下面自下而上穿过他左侧的大脑。


    但不幸中的万幸是,这根铁棍非常直,而且没有任何毛刺,边缘非常光滑,因为这个爆炸的力量相当大,所以整根铁棍以非常快的速度穿过了大脑,产生了一个相对比较整齐的创伤,没有对大脑的其他部位造成损害。所以他受到的伤比较有限,最后存活了下来。
    不过,他大脑前部很大的一块都已经被破坏了。而大脑的前部,也就是图中红色的部分,被称作前额叶,是我们人类高级认知的中枢。这个人虽然活下来了,但前额叶这么大一块受到创伤,他是不是就变成傻子了?

    但很有趣的是,在经过一个短暂的恢复之后,医生给他做了各种鉴定,发现他的智力水平跟正常人没有什么不一样。他还可以看书写字,还可以做数学题,表面上看起来他似乎完全正常。
    但是如果你是他身边亲近的人,你就会发现他似乎完全变了一个人,尤其是他的性格发生了很大的变化。在事故之前,他是一个十分和蔼可亲,大家都喜欢的人,但是在事故之后,他变得非常暴躁,非常容易生气。他有时候会很高兴,有时候又会发狂,反复无常。而且更重要的是他变得非常冷漠,他不能体会到别人的感受。他的情感这一块产生了很大的问题。
    除此以外,他在抉择方面也出现很大的问题。在受伤之前,他在工地担任一个小工头的角色,所以他负责规划每天每个人在工地上的工作。但在他受伤之后,他失去了这种规划的能力,他做事由以前的井井有条变得杂乱无章。他有时非常固执听不进别人的意见,有时做决定又非常犹豫,不知道应该怎么办,所以他很快就丢掉了工作。
    可能大家会觉得非常奇怪,盖吉的大脑在事故中受的这个伤,为什么会同时在情感跟抉择这两个方面对他造成影响呢?那我们就要从他受伤的这个部位说起。
    我刚才说了,大脑的前额叶是我们人类的高级认知中枢。人的前额叶比猴子、黑猩猩、大猩猩之类的要发达很多,被科学家认为是我们比其他动物要聪明很多的原因之一。而前额叶当中一个非常重要的部分,就是我这边画出来的眶额叶。

    眶额叶是一个非常有趣的区域,它在大脑中可以接收从感觉系统传来的感觉信息,比方说视觉信息,同时它还是大脑奖赏环路的一部分,它接收到关于奖赏的信息。通过把两方面的信息整合在一起,它能够告诉我们,我们现在看到的、接触到的东西,对我们来说有多少价值,有多大好处,帮助我们做出判断和抉择。


    在我们实验室就做过这样一个实验。我们在猴子的大脑中埋入非常细小的电极,它们的直径只有100微米左右,它可以告诉我们猴子单个神经细胞的活动,然后通过对它的记录,我们就可以知道在猴子做思考做抉择的时候,大脑的神经细胞在做什么。
    在这个实验里,我们首先会在屏幕上给猴子看一些图片,比方说五边形,然后在猴子看完图片之后我们会给猴子一些果汁喝。这样经过几次重复之后,猴子就知道这个五边形是个好东西,每次看到它就有果汁喝。


    我们再训练猴子看别的图片,比方说菱形。区别是,每次看到菱形之后,我们会给猴子一大堆果汁喝。这样经过学习之后,猴子就会知道菱形是比五边形更好的一个图形。


    猴子在看这些图片的时候,我们去记录它的眶额叶神经元的活性。大家知道,神经元的编码信息是通过发放电脉冲来进行的,在这边我用短直线来表示电脉冲。如果一个神经元它很兴奋,它就会发放很多电脉冲。
    我们发现,如果猴子知道它正在看的图片代表很多果汁奖励,价值比较高的时候,眶额叶有一部分神经元就会变得特别兴奋。如果猴子看到一张图片带来的奖励比较少,价值比较低的时候,这些神经元的活性就会不那么强。


    也就是说,如果我不知道这些图片是什么意思,我只要去看猴子大脑里眶额叶这类神经元的反应就会知道这个图片对猴子的价值是高还是低。通过这种方式,大脑就可以对奖赏的大小进行编码
    当然平时在生活中,肯定不会像实验这么简单就能够判断一个东西是好是坏,眶额叶其实要做非常复杂的计算。而且非常有意思的是,眶额叶做计算的这个过程其实不是我们能够主观体验到的,它是个黑箱操作的过程。这是什么意思呢?
    比方说我给大家看这么一张照片,一个小朋友。大家的感受是什么?你可能会说这是一个比较可爱的小朋友,看到他会比较高兴。至少我希望大家是这么想的,因为这是我们家的小朋友。


    但如果我问你,为什么觉得这个小朋友比较可爱?你可能会说,他有圆圆的小脸,大大的眼睛,他张着嘴吐着舌头,露出小白牙微笑的样子,看起来还蛮可爱的。
    但如果你仔细想一想,得到“可爱”这个印象的时候,你是不是用刚才的这些逻辑推理出来的呢?肯定不是,你的大脑不需要这样一步一步地分析来得到这个结果,它一下子就会告诉你,这个小朋友挺可爱的。
    同样这家伙也是张着嘴吐着舌头,你肯定不会觉得它可爱。为什么呢?你肯定不会说我仔细计算了它的牙齿有多少颗,它的嘴张得有多大等等。


    也就是说不需要经过逻辑的推断,眶额叶就可以对这个东西做出评估,但这个评估的过程其实我们是感受不到的,这也就是为什么说眶额叶是一个黑箱操作的原因。
    所以眶额叶做的事情,就是把感觉信息做一个综合评估,然后用评估结果帮助我们做抉择,另一方面,评估的结果给我们造成了主观的体验,也就是通常所说的情感。如果我们觉得恐惧,那是因为评估系统告诉我们这个东西是应该值得恐惧的。换句话来说,情感跟抉择之间并没有一个因果关系,它们只是评估系统的两个输出而已。

    这样,盖吉在抉择和情感两方面的障碍就很容易解释了。


    评估系统的工作有一部分是依靠与生俱来的能力,但还有一些是需要经过长期的训练培养出来的,同样可能依赖于非常复杂的计算。打个比方,想象一下如果你是这个足球运动员,球在你的脚下,你要进攻,接下来你会怎么办?你会把球传到左边去,还是右边去,还是自己再带一下看看情况呢?


    我们通常说,一个天才足球运动员不仅技术好,很会带球,很会射门,还有非常重要的一点就是,他需要有一个非常好的大局观,根据场面知道接下来应该怎么做,这就是眶额叶做的事。经过长期训练,可以让评估系统在非常复杂的环境下,用非常短的时间做出一个正确的选择。


    那如果大脑中有这么强大的一个评估系统,我们是不是就永远不会犯错呢?其实并不是这样的。评估系统的一个问题就是,如果你想要它变得非常强大,就要不停地去训练它,不停地学习,不停地锻炼它,但一旦训练完成之后,评估系统就会形成一个定势思维,它经常会让你用一个固定的思路去思考问题。
    有些脑筋急转弯就会经常挑战你的定势思维。比方说这个问题,谁能跳得比山高?

    它的答案是,山是不会跳的,所以我们谁都可以跳得比山高。为什么刚开始可能想不到这个答案呢,因为这句话其实是有歧义的。
    它可以理解为跳的高度要比山高,但是它也可以理解为你和山跳起来的高度谁更高一些,正常情况下,根据定势思维,你不可能让山去跳一下,所以评估系统就直接把第二种可能性给过滤掉了。你要是回过头来思考第一种可能性,谁能跳得比山的高度高,那显然就不会得到正确答案。所以说,大脑的评估系统带来的一个定势思维,有时候反而会对你做出正确判断造成一些障碍。
    还有一些场景,对大脑的评估系统来说也是一个问题。比方说去超市买饮料,选择非常多,很可能会迷失,不知道应该选什么。当你有非常多的选择时,评估系统其实不能一下子帮你很快地做出抉择。

    那通常你会怎么做呢?我不知道大家是怎么选的,但如果我去超市买饮料,我会先从货架上拿起一瓶饮料来,把注意力集中在这一瓶饮料上,看一下它的口味、颜色、卡路里、成分之类,然后做出一个对这瓶饮料的评估。接着,我会再把注意力切换到另一瓶饮料上。通过几次注意力的切换,我在评估过若干个选项之后,就可以根据这些评估结果做一个综合判断,选定想要的饮料。
    换句话来说,大脑当中存在着另一套系统,它可以通过注意力的切换来引导我们的评估系统,逐一地对面前的各项选择做出评估,我们把这个系统叫做推理系统
    推理系统位于大脑中的哪个位置呢?我们现在还在研究,在领域里目前没有一个确定的答案,但我们知道,至少在前额叶中有一个叫背侧前额叶的子区,对推理系统非常重要,它负责引导注意力,告诉我们现在注意力应该放在哪里,怎么综合信息来做出判断。


    推理系统相对于评估系统来说有一个特点,它不是黑箱操作的,你在做思考的时候是非常有逻辑的,可以一步一步地来,知道先做什么再做什么,就像刚才选饮料的过程,这当中有一个逻辑关系,主观上是可以感受到的。一旦出了差错,也可以从推理的角度来进行反省,究竟哪里出了问题。所以我们的推理系统非常灵活,很善于学习。

    有意思的是,当你在做这样的推理时,大脑中就有那么一些神经细胞、神经元,会忠实地反映你推理的过程。在我们实验室也有一些实验,专门研究大脑中的这些神经元。
    举这样一个例子,还是足球。比方说法国队跟阿根廷队,他们在去年世界杯的八分之一决赛的时候相遇了,在比赛之前如果让你猜哪支队会赢,你会怎么做呢?
    你需要首先分析一下现有的信息。比方说阿根廷队有世界级明星梅西,那这个证据可能偏向于阿根廷队赢多一些;法国队的球员比较年轻,比较有冲劲,活力多一些,这又偏向了法国队。

    在这个过程中,你掌握的每一条信息都不能百分之百地告诉你这个胜负关系是怎么样的,每一条信息都有用,要把它们综合在一起,才能得到最好的结果。数学上可以用概率来代表这些信息的含量,所以像这类问题就叫做概率推理。

    我们在实验室中怎么研究这类问题呢?我们给猴子做一个简化版的概率推理任务。我们在电脑屏幕上放两个小点,一个红点,一个绿点,让猴子猜它选择哪一个是正确答案,猜对了就可以得到果汁的奖励。

    那猴子猜的依据是什么呢?我们会给它看一串图形,每个图形告诉猴子,绿点红点是正确答案的可能性各是多少。图片依次出现,证据不停累积,有时候甚至可以发生反转,然后我们去记录猴子大脑中的神经细胞,研究一下猴子的大脑是怎么做推理的。

    我们还是用短竖线来代表神经细胞发放的电脉冲。如果你看见有很多短竖线的话,就代表这个神经元特别兴奋,如果是比较少的竖线,就代表它的活性受到了抑制。下面请大家看一下,这个视频非常短,要集中一下注意力。视频中“嗒嗒嗒嗒”的声音就是脉冲的声音,我们做实验的时候,就是通过倾听这样的声音来感受神经元的脉冲的发放的情况。


    大家可能觉得这个视频播放得太快了。可是在真实的实验场景中,猴子在做抉择的时候,这个图形就是这么飞快地过去,每张图形在屏幕上只出现半秒,而猴子非常聪明,经过学习,的确可以完成这个任务。
    一开始前三个图案偏向绿色,这时候神经元的脉冲就非常稀疏,直到第四个图案,证据稍微反转了一些,神经元就突然变得兴奋一点,然后又反转成绿的,神经元又变得不太兴奋,然后又反转成红的,神经元突然就又变得非常兴奋。最终的证据支持红色是正确的答案,猴子也做出了正确的抉择。

    猴子在做选择时思考的过程,我们其实是没有办法直接从它的外表和行为来观察到的。但是通过记录这个神经细胞的脉冲活动,我们就可以知道在这个思考过程中,猴子的大脑的确是根据证据一条一条地在进行累积,进行推理。猴子可以做这么复杂的概率问题,是因为大脑有一个非常强大的推理系统。

    如果推理系统这么有逻辑这么好,总能帮助我们做出正确的决定,那为什么不所有的事情都用推理系统来做呢?
    原因是推理系统有一个巨大的缺陷,就是效率低,速度慢,还烧脑子。回想一下刚才那个恐龙的例子,如果是推理系统在全权负责判断出现在你面前的这个生物是好是坏是不是有威胁,你就要去分析这个恐龙的牙齿有多尖,嘴巴张多大,流的口水多不多,眼睛是不是看见你了等等。等你把这些因素都考虑完了,恐怕你也已经被吃掉了。所以,我们的大脑单单靠有着高度逻辑的推理系统是不行的。
    因此大脑的评估系统和推理系统的配合很重要。即使是在一些通常我们觉得非常需要逻辑思维的场景,大脑的评估系统也起到了关键作用。

    举个例子,比方说围棋,围棋是一个非常考验智力的游戏,因为围棋的棋盘上有非常多的可能性,如果要在三步之内把所有的可能性都算到,就有超过上百万种的变化。人脑是不可能做到的,非但人脑不可能做到,现在世界上最强大的计算机都做不到在下围棋的时候进行完整的推理。


    那我们是怎么下围棋的?我们下围棋的时候其实只会算非常少的部分,包括世界冠军也是这样,他们会运用“棋感”来决定现在棋盘上面哪些位置是最重要的位置,他只在这些很少量的位置上去算棋。
    什么是棋感,这其实就是我们大脑里黑箱操作的评估系统。我们不清楚中间的过程是什么,但它非常高效,可以把复杂的盘面算出来,告诉我们盘面的状况如何,哪里是最关键的位置需要进一步考虑,然后我们就可以运用推理系统进行进一步思考。这要经过长期的训练才能完成,这也是为什么围棋高手比我们要强很多的原因。
    所以下围棋很好地体现了我们大脑内两个系统分工合作的例子。现在的人工智能系统也采用了类似的方法,比方说谷歌的阿尔法狗。大家知道2016年的时候,它和当时的世界冠军李世石比赛,4:1获胜。它后来又进一步进化了,现在已经没有人可能在阿尔法狗面前赢上哪怕一盘。


    阿尔法狗这个系统是怎么回事呢?它其实就是借鉴了刚才说的推理和评估两个系统的结合。它也会算棋,它是用一种搜索的算法,但最关键的是,它有一个非常强大的评估系统。

    因为即使是计算机也不可能把所有的步数给推算出来,所以谷歌用了一个现在最流行的深度学习的技术,来为阿尔法狗做了一个评估系统,这样它推算到某一步的时候就不用再算下去,这个评估系统会告诉它局面是好是坏。评估系统再加逻辑系统的结合,就帮助它可以去战胜世界上最强的人类棋手。
    说到现在,我们知道大脑当中做抉择的有推理系统、评估系统,然后这两者结合可以帮我们达到速度和准确度的一个很好的平衡,同时用这些理论可以造出来非常强大的人工智能系统。
    当谷歌阿尔法狗的新闻出来的时候,有些人会产生一个恐惧感,会想现在的人工智能这么厉害,是不是马上就要统治人类,会打败所有的人呢?但大家仔细想一想,现在的人工智能其实非常弱,比方说我自己一直幻想的能帮我做家务的机器人,到现在还没有人做出来。


    这一类的机器人为什么这么难做呢?它跟谷歌的阿尔法狗有什么差别呢?其实像谷歌阿尔法狗这一类围棋系统,它要解决的是一个非常有局限性的问题,输入、输出还有规则都非常清晰,它的评估系统相对可以做得比较完善。
    但是如果是一个家务机器人,它要处理真实环境当中的真实问题,它的评估系统就是一个开放式的,会非常复杂,现在的人工智能还没有能力做这么好的评估系统。哪怕我们的计算机可以每秒钟算上上百万亿次的数学推理,它都无法完成这样的任务。这也是现在人工智能未来的一个发展方向,要做一个更加通用的智能,而不是把问题局限在一个小的方面。我们对抉择的研究,也可以在人工智能的这些研究方向提供帮助,未来可以改善我们的生活。
    除此之外,我们的研究还可以给我们带来一些什么东西呢?对我来说,它可以帮助我们理解一些关于大脑更深层次的问题,包括一些困扰了人类很久的问题。比方说,什么是意识?这是困扰了人类上千年的问题,很多哲学家试图来解释什么是意识,我们为什么会有意识。

    刚才我提到过,抉择的这两个系统,有一个系统是黑箱操作。黑箱操作在很大程度上就是我们意识下层面,意识下层面的操作我们不知道它是怎么工作的,而推理系统相对来说是在意识上层面的,我们可以意识到推理系统是怎么工作的。所以针对评估、推理系统两个系统的研究,对它们进行比较,分析什么时候是哪个系统在工作,可以很好地帮助我们来了解意识的一些问题。
    还有另外一些有趣的问题,比方说,我们到底有没有自由意志?我们通常定义的自由意志是什么呢?我们每天做出各种抉择,它可能是由一些外部的刺激引起的。比方说我中午吃面还是吃馄饨,可能是因为面看上去比较吸引人,所以我选择了吃面,或者是因为我早晨吃过馄饨了,所以我选择了吃面。像这一类的抉择,你可以说影响我抉择的全部原因都是外界给我的刺激,或者说过去某一段时间的记忆,记忆追根溯源同样也是外界的刺激造成的。
    但有人不同意,有人会觉得我们是有自由意志的,也就是在我们内心当中,在我们的大脑当中还有一个我,它可以独立于这些外界刺激来帮助我们做出抉择。这个问题听起来很玄,但它其实在道德层面,甚至法律层面都有意义。比方说一个人犯了杀人这样的罪行,你要给他定罪,如果你认为人没有自由意志,他可以说我之所以杀人完全都是因为外界刺激所造成的,不是我自己的选择。
    自由意志归根到底是一个抉择的问题,我们研究抉择,我们去看抉择是怎么做出来的,是由外界刺激造成的,还是外界刺激加记忆,还是再加某些我们说不清楚的东西造成的抉择,这样可以帮我们探索,我们有多大程度上存在,或者不存在自由意志这个东西。
    好,我今天讲的就到这里,谢谢大家。



    一席会员权益包括持续更新的万象视频课程+一席2018纪念红本。万象课程目前已制作7门,总时长近1200分钟。


    点击阅读原文,加入一席会员。

    [color=var(--weui-LINK)]



    [color=var(--weui-LINK)][url=]Read more[/url]



    [color=var(--weui-FG-0)][backcolor=var(--weui-BG-2)]
    [color=var(--weui-FG-0)]




    [color=var(--weui-FG-0)]
    [backcolor=rgba(0, 0, 0, 0.02)]
















    [color=rgba(0, 0, 0, 0.9)][backcolor=var(--appmsgExtra-BG)]





    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2022-1-1 00:00
  • 签到天数: 793 天

    [LV.10]大乘

    11#
     楼主| 发表于 2024-8-10 13:32:15 | 只看该作者
    數學家陶哲軒(Terence Tao)正式談論 AI,這是他在牛津倫敦數學講座的演講:「人工智慧在科學和數學領域的潛力」,中英文字幕,強烈推薦。


    https://youtu.be/QTMdjdF3ZoU?si=a6bavFZURc75ZgR-
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2022-1-1 00:00
  • 签到天数: 793 天

    [LV.10]大乘

    12#
     楼主| 发表于 2024-8-13 07:53:58 | 只看该作者
    OpenAI将长期处于半死不活状态

    卓克

    2023年一整年,全球科技最大的明星就是OpenAI,它每次发布的新产品都让人惊呼下一个时代提前到来,连它公司内部的纷争都可以直接拿来改编成科幻大片。

    但这个热潮如今正在褪去,OpenAI也已经很久没有作为咱们专栏某一期的主角了。而今天这期的主角虽然是OpenAI,却是一些坏消息。

    首先,7月26日OpenAI推出了一个新产品——AI搜索工具SearchGPT。按说这也算是一个重要产品,但如今已经过去十多天了,并没有看到多少人分享它的使用体验,更没有人讨论它。

    为什么呢?因为这次又是一个期货产品,又是只向小部分用户开放内测。具体多少人呢?一万人。

    Sora在2024年3月份放出效果图时,也说内测阶段向少数人开放,如今5个月过去了,也是悄无声息。

    OpenAI的SearchGPT其实和市面上所有的AI搜索工具在主要功能上大同小异,比如像聊天一样搜索,每条搜索结果都附带来源,优先引用权威来源,有上下文记忆,记住前面的关键信息。但是这些功能一点也不稀奇,国外的Perplexity、Bing AI 自打一上线就有这些功能,国内的Kimi和秘塔也都有。甚至OpenAI在2023年11月之前的ChatGPT的Browser模式就是这样的,只不过后来下线了。

    唯一多出来的功能叫“答案可视化”,但OpenAI没有描述具体细节。我猜应该是把回答中适合用短片或者图片呈现的内容使用Sora渲染出来。

    这当然是个很好的想法。因为实际上,有的时候搜索出的链接里就有那个答案的原理图可以参考,所以不但文字描述可以给Sora提示,那些链接里的示意图或者原理图一样也是很好的参考。最后给用户一张清晰的图片解释,会让SearchGPT的用户体验大大好于现存的几个AI搜索。

    这个可视化的功能,目前的AI搜索工具们也不是不想做,而是做不成。比如Perplexity就新增了右侧图片的部分,把搜索出的和答案相关的链接里的图片以缩略图的方式显示在右侧,但可想而知,那个效果完全无法和Sora相比的。

    现在的问题是,Sora何时才能上线呢?遥遥无期。

    如果仅仅是一个没人讨论的搜索产品也就罢了,更夸张的是,OpenAI给出的Demo里SearchGPT提供的答案竟然还是错的,而且错的还不止一处。眼尖的记者发现,问的是关于8月Boone音乐节的细节,SearchGPT的回答分为5条,结果3条里包含事实错误——有的是把售票时间窗口当作音乐节举办时间,有的是把距离和车程搞错,有的是把场馆的网址搞错。

    就算不能超越竞争对手,错误总不能这么夸张吧?尤其这还是一个官方为了展示出色效果而做的Demo,这水平还不如一年前就上线过的GPT-4 Browser模式呢!

    OpenAI的第二个坏消息是,著名的科技媒体The Information拿到了公司内部消息——OpenAI在2024年可能会亏损50亿美元。

    这个数字是这样算出来的:

    首先,今年3月OpenAI已经决定花费40亿美元从微软购买云服务,用于补充ChatGPT的推理服务。因为自从GPT-4o发布以后,移动端的下载量剧增,导致他们自己原本35000台用于推理的服务器不够用了,而这40亿美元还是微软给打了折扣的价格。今年的支出还有模型的训练费用,大约30亿美元。1500名员工,还要支付15亿美元的薪水。所以,今年支出总共85亿美元。

    收入部分只有GPT的付费用户和API,两个加一起,在35亿-45亿之间,所以今年亏损的范围是40亿美元到50亿美元。

    而且我们注意,这个亏损并不是那种研发投入过大造成的。比如造车,前几个型号的开发肯定需要大力投入,但车辆上市后一旦其中一个或者几个成了爆款型号,利润就会在后续经营过程中收回来,前期投入哪怕是几十亿美元,也属于一次性投资。但OpenAI这种亏损不止在研发环节,经营环节也依然是巨额亏损。

    比如,模型训练费用30亿美元一年,训练出的模型可以用很久,咱们就当它是一次性投入。而租用微软的服务器今年要增加到40亿美元,这部分是持续的,但收上来的钱才将将覆盖租用服务器的钱。模型太大,推理的成本太高,这是谁也吃不消的。

    OpenAI自己不能自我造血,又看不到其他营收模式的可能,那么只要继续经营下去,2025年依然会持续大幅亏损。

    OpenAI的当务之急是减少运营成本。参数超过十万亿的大模型依然可以继续训练,但提供给用户的用于推理的模型绝对不能大。业内一个共识是,4000亿参数规模的大语言模型已经是收支平衡的上限了。如果你要用这么大的模型,必须有过硬的优化。如果能把用于推理的模型控制在1000亿参数规模以下,公司才能自我造血,否则用户数量越多,亏损越大。

    下一个对OpenAI不利的消息是,微软将OpenAI列入竞争对手名单。

    别看微软已经向OpenAI提供了130亿美元的投资,但是在2024年的年度报告中,OpenAI、谷歌、Meta都被列在微软的AI产品以及搜索和新闻广告领域的竞争对手。这个消息并不意味着微软要打压OpenAI,而是因为微软打算用一种微妙的手段维持OpenAI为己所用的角色。

    具体来说是这样的:

    微软觊觎的是OpenAI的技术。GPT这种水准的模型,微软自己是永远也搞不出来的,但它可以利用这些技术实现产品化。微软本身的产品线极其丰富,比如办公套件、操作系统、程序开发工具、数字媒体、云服务、电子游戏、数据库。每个产品线都有无数的可以和AI结合的点,结合以后都可以增加产品竞争力或者提高付费用户的数量。

    这些AI功能并不会调用一个无比庞大的模型,也许从OpenAI最新的模型里蒸馏出一个上百亿参数的模型就够用了。有可能的情况下还可以把模型本地化,于是AI推理的成本可以转嫁给用户。

    微软可以借AI实现持续长久的盈利,而需要付出的就是一个研发团队和研发过程的一次性投入。

    微软曾在去年11月份OpenAI内乱时公开表示愿意接收OpenAI离职员工到微软来,收入只高不低。尽管后来阿尔特曼回归了OpenAI,并没有人离职去微软,但微软通过在整个过程发挥至关重要的作用,事实上形成了对OpenAI管理者的控制。

    在微软的眼中,OpenAI最好永远处于这种持续稳定的亏损中,而不要突然开发出很多新的盈利点,此后达成自我造血。这样微软就完全可以把一直没收回的投资当作公司内部的研发投入看待。

    而且,这还是一个研发效率高、投入产出比很高的部门,不像谷歌的DeepMind那样,很多东西离产品太远,不知道猴年马月才会在工程实践中用得着。

    当下还能继续扩大参数规模、堆十万或几十万张计算卡的公司并不多,背后是微软的OpenAI是一个,背后是世界首富的X是一个,最后一个就是Meta。

    Meta最近刚刚推出了Llama 3.1,其中405B这个版本的表现略微超过GPT-4o。要知道,外界传闻中GTP-4o的参数规模是1.8万亿,而405B只有4050亿参数,而且Llama3.1还是开源的,这让Meta显得格外另类。

    Meta在2023年投入了350亿美元在AI上,2024年的预算是400亿,可能是各家里投入最多的。现在他们正在训练Llama 4,大约还需要半年左右的时间才能训练完成。而且,Meta还在大量购入英伟达的计算卡H100,当前他们一共拥有大约46万张,预计2024年里还会再购买14万张,总量会增加到60万张。这还只是部分硬件的成本,已经180亿美元了。

    Llama又是一个开源模型,Meta的钱都是哪儿来的呢?

    实际上,全都来自于Meta的传统业务——广告。他们2024年第二季度的营收是390亿美元,净利润是135亿美元,广告业务占总收入的98%以上。

    对于大语言模型这种投资深坑来说,没有每年一百多亿美元的净利润打底是拼不过微软和马斯克的。

    Meta的情况和微软类似,自身拥有稳定的盈利能力,而且在AI上砸的钱都可以改造进自己的众多软件中,比如Facebook、Instagram、Messenger、WhatsApp。

    以上提到的几个AI巨头还有一个共同的特点——它们都有持续产出的高质量数据。这些对今后训练下一代或者更下一代的大模型是非常珍贵的,大批高质量数据和大笔现金是有兑换关系的。

    别看OpenAI在2023年引领了整整一年的风头,但缺钱又缺数据的它也许在今后很久一段时间都是一个半死不活的状态,始终无法自我造血,但又一直不会破产倒闭,始终处于为微软提供优质研发成果这样一个角色。这可能是之前谁也没有想到的。
    回复 支持 反对

    使用道具 举报

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2024-11-23 00:24 , Processed in 0.048361 second(s), 19 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表