AI 教父傑佛瑞·辛頓的警告: 他開創了人工智慧,而現在,他正在警告全世界。AI 教父傑佛瑞·辛頓打破沉默,公開談論世人毫無準備的 AI 致命危險。傑佛瑞·辛頓是一位頂尖的電腦科學家和認知心理學家,因其在神經網路和深度學習方面的開創性工作,被廣泛譽為「AI 教父」。他曾獲得被譽為「電腦界諾貝爾獎」的 2018 年圖靈獎。2023 年,他離開 Google,以便向人們發出關於 AI 日益增加的危險的警告。
他解釋了:
◽️ 為什麼 AI 可能導致人類滅絕,且這個機率確實高達 20%。
◽️ 他如何因為公開談論 AI 而遭到噤聲。
◽️ 他對於曾幫助創造 AI 所感到的深切後悔。
◽️ AI 目前對人類構成的 6 大致命威脅。
◽️ AI 在提升醫療、提高生產力和改革教育方面的潛力。
談論職業與 AI 的優越性:
「他們稱您為 AI 教父,那麼在這個超級智慧的世界裡,您會對人們的職業前景說些什麼?去學當水管工,真的嗎?好吧,我要去當水管工了。」傑弗里·辛頓 (Jeffrey Hinton) 是諾貝爾獎得主,他是 AI 的先驅,他的開創性工作塑造了 AI 和人類的未來。「他們為什麼稱您為 AI 教父?因為當時沒有多少人相信我們可以將 AI 建模在大腦上,讓它學會做複雜的事情,例如識別圖像中的物體,甚至進行推理。我推動這種方法已經 50 年了,然後 Google 收購了這項技術,我在那裡工作了 10 年,研究的東西現在被 AI 廣泛使用。然後您離開了,為什麼?這樣我就可以在一個會議上自由發言。您想自由談論什麼?AI 可能有多危險。我意識到這些東西總有一天會比我們更聰明,這是我們從未處理過的問題。如果你想知道當你不是頂級智能時生活是什麼樣子,去問一隻雞。」
「因此,風險來自人們濫用 AI,然後是 AI 變得超級聰明,決定不需要我們的風險,這是一個真實的風險嗎?是的,但是他們不會阻止它,因為它對太多事情來說太好了。那麼監管呢?他們有一些,但它們不是為了應對大多數威脅而設計的,例如歐洲的法規有一項條款說這些都不適用於 AI 的軍事用途。真的嗎?是的,這太瘋狂了。您的一個學生離開了 OpenAI?是的,他可能是開發早期版本 ChatGPT 背後最重要的人物,我認為他離開是因為他有安全方面的顧慮。我們應該認識到,這是一個生存威脅,我們必須面對這個可能性,除非我們盡快採取行動,否則我們將接近尾聲。」
對話開場與 AI 歷史:
那麼讓我們來談談風險。在這樣一個世界裡,我們最終會做什麼?這總讓我有點驚訝,53% 經常聽這個節目的人還沒有訂閱這個節目。所以,在我們開始之前,我能請您幫個忙嗎?如果您喜歡這個節目,喜歡我們在這裡所做的一切,並且想支持我們,您可以做到的免費簡單方法就是點擊訂閱按鈕。我對您的承諾是,如果您這樣做了,我和我的團隊將竭盡全力確保這個節目每週對您來說都更好。我們會聽取您的回饋,我們會找到您想讓我與之交談的嘉賓,我們會繼續做我們正在做的事情。非常感謝您。
傑弗里·辛頓,他們稱您為 AI 教父。是的,他們是這樣稱呼的。他們為什麼這樣稱呼您?當時沒有多少人相信我們可以讓神經網絡運作,人工神經網絡。因此,在很長一段時間裡,從 1950 年代開始,AI 領域有兩種關於如何進行 AI 的想法。一個想法是,人類智慧的核心是推理,要進行推理,您需要使用某種形式的邏輯。還有另一種方法,那就是讓我們以大腦為模型來建立 AI,因為顯然大腦使我們變得聰明。所以,在電腦上模擬一個腦細胞網絡,並試著弄清楚如何學習腦細胞之間的連接強度,讓它學會做複雜的事情,例如識別圖像中的物體,或識別語音,甚至進行推理。我推動這種方法約 50 年,因為很少有人相信它。沒有多少好的大學有這樣的研究團隊,所以我很幸運地得到了一群非常優秀的學生,其中一些人繼續在創建像 OpenAI 這樣的平台方面發揮了重要作用。是的,所以我懷疑這是一個很好的例子,他們中的一堆人。您為什麼相信以大腦為模型是一種更有效的方法?不只是我,馮·諾伊曼 (von Neumann) 和圖靈 (Turing) 早期也相信它…
當前的使命與覺醒:
在您人生的這個階段,您的使命是什麼?我現在的主要使命是警告人們 AI 可能有多危險。當您成為 AI 教父時,您知道嗎?不,不是很清楚。我對理解某些風險有點慢。有些風險總是顯而易見的,比如人們會使用 AI 來製造自主致命武器… 其他風險,比如它們總有一天會比我們更聰明,也許我們會變得無關緊要,我對此認識得很慢。其他人 20 年前就認識到了,我只是幾年前才認識到這是一個真實的風險,而且可能很快就會到來。您怎麼可能沒有預見到這一點?這是一個很好的問題,您怎麼可能沒有看到呢?但是請記住,20、30 年前的神經網絡非常原始… 那是什麼時候改變的?對一般民眾來說,是 ChatGPT 問世時改變的。對我來說,是當我意識到我們正在製造的這種數字智慧,擁有某種使其遠優於我們所擁有的生物智慧的東西。
AI 優勢的細節——數字化與分享:
我們現在從 AI 中知道的是,如果您可以獲得有關是否增加或減少連接強度的信息,以便在您嘗試做的任何任務中做得更好,那麼我們就可以學到不可思議的東西,因為這就是我們現在正在用人工神經網絡所做的… 我認為 AI 在很多方面已經比我們更好了,在特定的領域,比如西洋棋,AI 比我們好得多… 就它們擁有的知識量而言,像 GPT-4 這樣的東西知道的比您多數千倍。
六大威脅的詳細探討:
在我們今天坐在這裡的時候,您對 AI 安全有什麼重大擔憂?如果我們要列出最主要的幾個,真正讓您擔憂的,我們應該考慮的,我可以說不止幾個嗎?請說,我會把它們都寫下來,我們將一一討論。好的,首先,我想區分兩種完全不同類型的風險:一種是來自人們濫用 AI 的風險,這是大多數風險,也是所有短期風險;然後是 AI 變得超級聰明,決定不需要我們的風險。這是一個真實的風險嗎?我主要談論第二種風險… 我們從未處理過比我們更聰明的東西,所以關於這種生存威脅的真正問題是,我們不知道如何處理它… 我經常說我們有 10% 到 20% 的機會會被消滅,但這只是基於我們的直覺… 有時候我會想到核彈和原子彈的發明,以及它與之相比如何。這有什麼不同?對於 AI,它對很多很多事情都有好處… 所以我們不會停止開發。另外,我們不會停止它,因為它對戰鬥機器人有好處,而且沒有一個出售武器的國家會想阻止它。就像歐洲的法規一樣… 有一項條款說,這些法規都不適用於 AI 的軍事用途。
風險一:網路攻擊
那麼讓我們來看看風險吧。您談到了有人類風險,然後是…所以我區分了這兩種風險,讓我們來談談所有來自利用 AI 的壞人類行為者的風險。有網路攻擊,所以從 2023 年到 2024 年,它們增加了大約 12,200%。這可能是因為這些大型語言模型使得進行網路釣魚攻擊變得容易得多… 現在有了 AI,他們可以複製我的聲音、我的形象,他們可以做所有這些。我很難過,這非常煩人。是的,我有一個較小版本的情況,就是有些人現在以我作為作者之一發表論文… 這些攻擊已經爆炸性增長,而且這些顯然已經,AI 非常有耐心,所以他們可以瀏覽一億行程式碼,尋找已知的攻擊方法… 這非常令人擔憂,因為他們可以自己思考並發現… 您有採取任何措施來保護自己免受網路攻擊嗎?是的,這是少數幾個我徹底改變我所做的事情的領域之一,因為我害怕網路攻擊。我擔心一家加拿大銀行會被網路攻擊擊垮,攻擊者會出售它持有的股票。所以我把我的錢和我孩子的錢分散到三家銀行…
風險二:惡性病毒
好的,接下來是使用 AI 來製造惡性病毒。好的,問題是這只需要一個懷有怨恨的瘋狂的人… 您現在可以使用 AI 以相對便宜的方式製造新病毒,而且您不必是一個非常熟練的分子生物學家才能做到。這非常可怕。所以您可能會有一個小邪教…
風險三:迴音室與社會分裂
好的,然後是通過像 YouTube 和 Facebook 這樣的組織製造這些迴音室,向人們展示會讓他們感到憤慨的東西。人們喜歡感到憤慨… 所以基本上,利潤動機是說向他們展示任何會讓他們點擊的東西,而會讓他們點擊的是越來越極端和證實我現有偏見的東西… 我不確定人們是否意識到每次他們打開應用程式時,這實際上正在發生… 我們不再擁有共同的現實了。我與其他看 BBC 和其他 BBC 新聞的人,以及其他閱讀《衛報》和其他閱讀《紐約時報》的人分享現實。我與看福克斯新聞的人幾乎沒有共同的現實。
對監管與資本主義的反思:
這一切背後的想法是,這些公司只是想賺取利潤,他們會盡一切努力賺取更多的利潤,因為他們必須這樣做。所以我們幾乎不能責怪公司… 您需要對其進行很好的監管。所以您真正想要的是制定規則,這樣當某些公司試圖賺取盡可能多的利潤時,為了賺取這些利潤,他們必須做對人們整體有好處的事情… 我認為稱之為傷害是採取特定的觀點,是採取監管是非常有害的觀點。您需要做的只是限制這些大公司,這樣為了賺取利潤,他們必須做對社會有用的事情… 誰來決定它是否會傷害社會?因為你知道這是政治人物的工作。不幸的是,如果政治人物被公司擁有,那就不太好,而且政治人物可能不了解技術。
風險四:致命自主武器
所以這是下一個問題,就是算法將把我們推向我們的迴音室。下一個是什麼?致命自主武器。致命自主武器意味著可以殺死您並自己決定是否殺死您的東西,這可能是軍工複合體的偉大夢想… 如果回來的不是裝在袋子裡的屍體,而是死去的機器人,那麼抗議就會少得多… 大國可以更容易地入侵小國,因為他們的士兵不會被殺。這裡的風險是… 不,不,即使機器人完全按照建造它們的人想要的方式去做,風險是它會使大國更頻繁地入侵小國,更頻繁,因為它們可以。是的,這不是一件好事。所以它降低了戰爭的摩擦,它降低了入侵的成本。
風險五:失業的衝擊
所以這是下一個問題… 失業。在過去,新技術的出現並沒有導致失業,而是創造了新的工作… 但在這裡,我認為這更像工業革命時期引進機器時的情況… 我認為對於平庸的腦力勞動,AI 只會取代所有人… 如果它可以做所有平庸的人類腦力勞動,那麼它會創造什麼新的工作?您必須非常熟練才能擁有它無法做的工作。我認為工業革命在取代肌肉方面發揮了作用,對嗎?是的,沒錯。而這次 AI 革命取代了智慧,大腦。是的,所以平庸的腦力勞動就像擁有強壯的肌肉一樣,它現在不值多少錢了…
風險六:超級智能接管
那麼剩下什麼呢?也許有一段時間是某些類型的創造力,但超級智能的整個想法是什麼都不會留下。這些東西將會比我們在所有事情上都做得更好。那麼在這樣一個世界裡,我們最終會做什麼?… 這是好的情景。那麼壞的情景呢?壞的情景是她想:「我們為什麼需要他?」是的,我的意思是,在一個我們擁有超級智能的世界裡,您不相信這離我們很遠。是的,我認為它可能不會那麼遠。很難預測,但我認為我們可能會在 20 年內或甚至更短的時間內得到它。
超級智能的本質與人類意識:
所以我們現在擁有的和超級智能之間有什麼區別?… 您說這可能還有十年左右的時間。是的,可能吧。可能更近,有些人認為更近,也可能更遠… 我的猜測是在 10 到 20 年之間,我們將擁有超級智能… 永生。我們實際上解決了永生的問題,但它只適用於數字化的東西。所以它會,它本質上會知道人類知道的一切,但更多,因為它會學到新的東西。它會學到新的東西,它也會看到所有人類可能從未見過的類比… 它會比我們更有創造力,因為它們會看到所有我們從未見過的類比… 我認為原則上沒有任何東西可以阻止機器有意識…
情感與意識的觀點:
假設我製造了一個戰鬥機器人… 如果它感到害怕會非常有用… 它不會因為腎上腺素而跑開的,它是因為它神經網絡中的一系列… 神經學過程發生了,這與腎上腺素具有相同的效果… 人們會內建一些東西,這樣當環境使他們應該趕快離開這裡時,他們就會感到害怕並跑開。那麼它們就會有情緒。它們不會有生理上的方面,但它們會擁有所有認知上的方面… 我認為這是一個我們會停止使用的術語。我認為意識就像那樣,我認為我們會停止使用那個術語。但我認為機器沒有理由不能擁有它。
從 Google 辭職的原因:
是什麼讓您來到 Google?我在 Google 工作了大約十年,對嗎?是什麼讓您來到那裡?我有一個患有學習困難的兒子,為了確保他永遠不會流落街頭,我需要獲得幾百萬美元… 所以當我 65 歲時,對我來說幸運的是,我有兩個聰明的學生… Google 最終收購了您的技術… 您為什麼離開 Google?我離開 Google 的主要原因是因為我 75 歲了,我想退休。我做得非常糟糕… 我離開 Google 的確切時間是為了讓我可以一個在麻省理工學院的會議上自由發言… 您自己會感覺到,如果您為一家大公司工作,說出會損害這家大公司的事情,即使您可以擺脫它,感覺也不對。
對世界領導人的呼籲與希望:
對於現在正在聽這個對話,並且處於權力地位和影響力地位的世界領導人來說,您的信息是什麼?我會說您需要的是高度監管的資本主義… 我認為人們能做的事情不多,除非是試圖向他們的政府施壓,迫使大公司從事 AI 安全工作,這是他們可以做的。
個人反思與遺憾:
在您自己的職業生涯中,您回顧過去,有沒有什麼您會說:「以我現在擁有的事後諸葛,我在那個關頭應該採取不同的方法。」我希望我花更多時間陪伴我的妻子。還有我的孩子們小時候,我有點沉迷於工作… 我只是在我可以的時候沒有花足夠的時間。
最終警告與不確定性:
如果您,如果您對我的聽眾有一個關於 AI 和 AI 安全的結束語,Jeffrey,那會是什麼?我們仍然有機會弄清楚如何開發不會想取代我們的 AI,因為有這個機會,我們應該投入巨大的資源來試著弄清楚。因為如果我們不這樣做,它就會接管。您抱有希望嗎?我只是不知道。我是不可知論者。當我感到有點沮喪時,我認為人類完蛋了… 當我感到開朗時,我認為我們會找到一個方法。是的,我們必須面對這個可能性,除非我們盡快採取行動,否則我們將接近尾聲。
對人類幸福的最大威脅:
以您所看到的一切,您認為對人類幸福的最大威脅是什麼?我認為失業是對人類幸福的一個相當緊迫的短期威脅。我認為如果您讓很多人失業,即使他們獲得全民基本收入,他們也不會快樂,因為他們需要目標… 您認為大規模失業這個結果比不失業更有可能嗎?是的,我認為那個肯定比不失業更有可能。如果我在呼叫中心工作,我會感到害怕。所以需要緊急行動。是的,我不知道那個緊急行動是什麼。您會告訴您的孩子做什麼?如果他們沒有錢,去學當水管工,真的嗎?
Jeffrey,非常感謝您… 我比他們有一個優勢,就是我年紀大了,所以我失業了,所以我可以說什麼。好了,既然如此,謝謝您所做的一切,這是一個真正的榮幸,請繼續這樣做。謝謝您。謝謝您。人們認為我在開玩笑,但我不是。水管工,水管工的工資很高。
