Copy
#173(點擊閱讀網頁版)|閱讀時間 7 分鐘
早安,過完年用剩下的兩篇跟大家聊聊 AI。今天是 part 3,延續上次的主題,從另外一個端點的視角來了解為何 Google 與 Meta 等科技巨頭在推出 AI 產品這件事情上如此保守。

part 1 由此看
part 2 由此看

希望你喜歡這期電子報,也歡迎收聽我與 Angela 共同主持的 podcast,當中有更多電子報沒有收錄的科技趨勢洞察。歡迎邀請你的朋友訂閱;若對過往期數感興趣,請 由此進入 archive
Meta 的首席 AI 科學家 Yann LeCun(楊立昆)是 AI 宗師之一,也是 2018 年圖靈獎的得主。前陣子 LeCun 因為在 Twitter 上發表「ChatGPT 並非特別創新,也不怎麼有革命性」的發言而引來熱烈討論。不過,LeCun 之後在接受 Alex Kantrowitz 的專訪中更清楚地闡述了他的想法。
 

為什麼 ChatGPT 並非特別創新,也不具革命性?

LeCun 認為基於大型語言模型(LLM)的 ChatGPT 是個「很不錯的產品」(well-engineered product),但在 AI 技術上並無特別的突破,基本上仍是站在前人的成果上。我想 LeCun 想表達的是該產品並沒有帶來技術典範上的轉移。

然而,怎樣才是技術典範上的轉移?白話來說,什麼才是 AI 的下一步?有人說 AI 的終極樣貌就是「人工通用智慧」(artificial general intelligence,AGI),簡單來說就是擁有跟人一樣的智慧,那麼對 LeCun 而言現在的 AI 距離 AGI 還有多遠?綜合 LeCun 的前後文,他認為 AGI 模型有三個條件:
  1. 有模擬(simulate)互動對象的能力
  2. 有預測(predict)的能力
  3. 有規劃(plan)的能力
LeCun 再三強調 LLM 只捕捉到人類智慧的極小一部分,因為 LLM 的訓練資料是文字,而人類大部分的智慧都不存在於文字,也無法用文字表示。AGI 若要能模擬互動對象,則訓練資料源必須不只是文字,就像嬰兒在識字以前是透過大量的非文字觀察(observation)來自主學習。

此外,智慧(intelligence)有兩個基本要素,分別是預測與規劃。LLM 已經能做到預測,因為其基本原理就是透過機率不斷去預測下個字可能會是什麼。然而,LLM 目前還做不到規劃,也就是對每一種行動可能產生的結果進行預測,並利用這些預測來規劃最能達成目標的作為。

我大概能理解 LeCun 為何再三強調 ChatGPT 並沒有技術典範上的突破,因為它仍是基於文字資料的學習,並運用機率來預測(猜)字與字之間的關係。ChatGPT 既無法模擬互動對象,也無法規劃,更不負責真偽(因為只是基於機率的預測)。

但我也認為工程上的突破也是一種突破。為了更清晰地理解 ChatGPT 的優異之處,我透過 VPN(因為目前只開放美國 IP)再次使用了一下 Meta 的聊天機器人 BlenderBot,結果是使用體驗與 ChatGPT 有著天壤之別,兩者在語意理解能力及輸出速度上有顯著的差距。

 

OpenAI 是否真的「Open」?

LeCun 對 OpenAI 的另一個批評是認為它一點都不「Open」。

如同絕大多數的科學研究,能支持 AI 科學研究的商業模式主要就三種:大學、慈善事業、企業。其中「企業」尤指夠大且有足夠獲利的那種,畢竟一般公司養不起。

LeCun 舉了 DeepMind 為例,它們一開始以新創自居,但很快就沒錢,只能賣給 Google。LeCun 認為當年 Google 的收購很有遠見,且 DeepMind 一直都像個象牙塔研究單位,很少接受從其他事業單位過來的壓力。

OpenAI 則是另外一回事,一開始是選擇慈善事業路線,之後因為經費不足只好轉型成有獲利上限(capped profit)的新創公司。既然是新創公司,不是有可獲利的商業模式就是要募資,而現在的 AI 當然只能選後者。LeCun 認為 OpenAI 最厲害的地方就是「很會做 Demo」,因為不這麼做就很難持續募資。

身為一名科學家,LeCun 認為「發表論文」與「開放原始碼」才是推進 AI 科學研究的關鍵,前者能吸引到更好的人才(科學家),後者則能最有效率地改進模型。「吸引到更好的人才」這點特別有意思,因為非常的科學家視角。我的理解是對一名科學家來說,影響力或許才是最主要的追求目標,而建立影響力的主要方式就是發表能被很多人引用的論文。

然而,OpenAI 的執行長 Sam Altman 與 Meta FAIR 的首席科學家 Yann LeCun 剛好就代表了光譜上的兩個端點:一個是(數個月前)沒什麼公眾知名度的小公司,一個是每個人都等著罵的科技巨頭;一個是熟悉矽谷與資本運作的創業家,一個是畢生投入學術研究的科學家。

例如,Altman 與 LeCun 在「開放性」(openess)這件事上就有很兩極的看法。Altman 認為所謂的開放就是盡早釋出 AI 產品以及可接入模型的 API,讓社會開始認識與辯論,如此才能適應未來世界。LeCun 則認為過早釋出不良產品的弊大於利,所謂的開放指的是將研究成果與原始碼公佈出來,加速科學研究的進展(以至於能推出「準備好的」產品)。

 

Google、Meta 等科技巨頭為什麼如此保守?

進一步思考,我認為 LeCun 與 Altman 對「開放性」的解讀與作為很大程度上受到所屬公司的影響,關於這點華盛頓郵報在一篇專文中有很清楚的闡述。

對 Google、Meta 甚至是微軟這種等級的公司而言,公開釋出 AI 產品通常有害無益。首先,兩家巨頭公司擁有數十億的使用者,承擔負面輿論的可能性遠大於世界上任何一家公司。其次,都已經會被罵了,AI 產品還很難營利,誘因當然更低了。最後,科技巨頭主要養的人才都是科學家,而科學家最重視的是學術跟開源領域上的影響力,是否推出產品或許並不重要。

在科技巨頭這種量級的上市公司中要獲准推出一個 AI 產品比想像中的困難,公關部門會問這項產品是否可能被濫用,法律部門會問餵給 AI 模型的訓練資料是否有符合美國法規,更甚者高階經理人會問如果產品一不小心爆紅,龐大的運算費用是否有辦法轉換成相對應的價值?

LeCun 也在專訪中分享了兩個 Meta 自家的案例。

第一個案例是 Meta 推出的 AI 聊天機器人 BlenderBot。第三代的 BlenderBot 使用了有 1,750 億個參數的 OPT-175B 語言模型,照理說能力並不會太差,但市場反應卻很差。LeCun 表示這是因為 Meta 設計了很多「限制器」,不讓 BlenderBot 回答例如政治、宗教等敏感問題,同時在應答上也會比較保守。限制器讓 BlenderBot 成為一個相對安全的產品,但安全就等於無聊。

第二個案例是 Meta 在 2022 年 11 月推出的學術研究輔助 AI:Galactica。Galactica 推出後不久就引來許多負面討論,其中最有名的就是有人問它「吃碎玻璃有什麼好處」,而 Galactica 也還真的整合了研究報告說明吃碎玻璃的好處。

Galactica 在引來大量負面討論後很快就下架了,前後只上線了三天。當時許多人揣測是 Meta 為了止損,但 LeCun 還原了真相,表示這是開發小組自己決定下架的,因為他們承受不了輿論壓力。然而,Galactica 的論文以及原始碼都仍保持公開。

LeCun 對 Galactica 事件的始末做了很完整的說明。Galactica 並不是一個「聊天機器人」,而是一個「學術寫作助手」,例如當一個研究者寫了「氫能源研究近期有了重大突破進展」,Galactica 會自動抓取相關的論文然後試圖完成後面的段落。因此,當人們對 Galactica 提出荒謬的提問時,它也會去找相關的論文然後完成後續的寫作。

Galactica 是一個很有趣的案例,特別值得拿來跟 ChatGPT 做比對。Meta 最大的錯誤或許是沒有意識到人們直覺上就會把這樣的應用當成問答機器人使用,加上產品設計也不夠清楚。

ChatGPT 的成功除了可歸功於其強大的性能,我認為還可歸功於其開發者 OpenAI 在 ChatGPT 爆紅以前並不是一家受公眾注意的公司,這點反應在人們對 ChatGPT「睜眼說瞎話」的生成內容有著很高的包容度,甚至有「將 bug 當成 feature」的反應。如果今天 ChatGPT 是由 Meta 或 Google 推出,我認為下場將截然不同。

換言之,雖然科技巨頭擁有巨量的經費與龐大的使用者,但這些資產同時也是某種形式的累贅。這點可搭配另一個現象解讀:有越來越多科技巨頭中的優秀 AI 科學家近年都紛紛離去並自立門戶,驅使他們的最大動力之一是可以自由地推出 AI 產品。

有趣的是當錯誤率不低的 ChatGPT 廣被世人所接受,或許反而造成了「OpenAI 替科技巨頭開路」的結果。自 ChatGPT 推出以後,可以看到 Google 與 Meta 都比以往更積極地表態未來將在自家產品中用上 AI 功能,甚至考慮推出 AI 產品。

 

社會該如何與不斷進化的 AI 相處?

本期的最後特別想分享 LeCun 對「社會該如何與 AI 相處」的三點看法,因為這三點都精準打擊了過去幾個月以來的熱門討論議題。

首先,回顧人類歷史,幾乎每一種科技突破誕生時都會招來抗爭,因為擋人財路,例如:照相機衝擊了手繪肖像、唱片衝擊了現場演出、網路衝擊了出版業。然而,沒有一次抗爭有辦法勝出,人類向來阻止不了科技的進步。

其次,許多人不滿 AI「剽竊」創作者的創意,例如用知名畫家的風格來作畫。然而,以現行著作權法來說,法律從來不禁止人們受他人畫風的「啟發」,甚至不禁止模仿畫風。特別制定新的法律來禁止 AI 是合理的嗎?

最後,許多人倡議一種論述:「為什麼我們的創作被矽谷的大公司拿去發展 AI 模型?它們都這麼有錢了還要剝削我們?」這種論述很快就失效了,因為再過一、兩年,每個年輕人都能在自家的車庫中架設伺服器、佈建 AI 模型跟爬蟲,然後盡情的執行上述的剝削情事。把矛頭指向「大公司」是個錯誤的論述方向。
點擊訂閱《曼報》
Facebook
Instagram
Copyright © 2023 manny-li.com, All rights reserved .


如果你真的不希望收到這份電子報,點擊取消訂閱。