【專訪 iKala 執行長程世嘉】1+1 都不會算,為何 ChatGPT 會給出「人類最想聽」的答案? | TechOrange 科技報橘
Search
Close this search box.

【專訪 iKala 執行長程世嘉】1+1 都不會算,為何 ChatGPT 會給出「人類最想聽」的答案?

【TechOrange 編輯部導讀】

編按:上週,OpenAI 正式發表了 GPT-4。同時,Google 跟微軟各自在雲端與生產力工具戰場上 all in,好多精采大戲正在上演。

為了跟緊這波生成式 AI 浪潮,或許很多讀者們也是追著他的個人臉書在看每天的快速發展。

iKala 共同創辦人暨執行長程世嘉 Sega 在接受《全新一週》專訪時談到:

💡 GPT-4 強在哪?和 ChatGPT 有何不同?

💡 ChatGPT 其實不笨!為何它只會給人類「最想看的答案」?

💡 生成式 AI 將徹底顛覆我們教育下一代的方式

💡 十倍速時代到來!生成式 AI 為每一種產業帶來全新可能

以下為節目專訪逐字稿。

《全新一週》主持人戴季全(以下簡稱「戴」)

戴:最近全球網路圈發生了一件大事,就是 GPT-4 的上市,在這集裡面,我邀請了我的好朋友 Sega 來和我們談談 GPT-4 還有 AI 後續的發展,我們在節目裡面辯論了我們的小孩,未來應該要用什麼樣的態度跟措施來應對新的 AI 時代。在節目裡面我們也討論了 AI 應用在製造、醫療、運輸,甚至軍事上,會帶來什麼樣破壞式的衝擊,甚至到節目的最後,為什麼 Sega 會強烈地呼籲政府千萬不能忽略 AI?我們馬上來聽。

我們今天邀請到的特別來賓,是 iKala 的 co-founder/CEO 程世嘉 Sega。

這一集為什麼特別再邀請 Sega 來到節目中呢,是因為我們想請他來聊一聊這幾天才剛出爐的 GPT-4。那當然我相信這陣子大家玩 ChatGPT 已經玩到瘋了,(我的)兩個小學生的小朋友玩得很不亦樂乎。

它上線之後,國外有很多報導、demo 影片——它更會說話了,所謂更會說話的意思是,它說的話更正確了,包含語意的正確跟政治正確;第二個是除了讀文字之外,它會看圖片了,這是第二個特點;第三個特點,也是最最最最最明顯,也是今天可能很大一部份會跟 Sega 討論、請教的是,它變得更會考試,它變得非常非常會考試。

那就你的觀點來看,這三個特點,你怎麼看 GPT-4?

iKala 共同創辦人兼執行長程世嘉 Sega(以下簡稱「程」)

程:我覺得 GPT-4 它整體來說,主要就是一個升級版,方向就跟……剛才季全有講到,第一個最顯著的差異,當然就是它有圖片的能力;大家其實在 GPT-4 剛出現的時候就有預期到,因為它只能吃文字,接下來一定會可以看圖片,因為可以看圖片的機器人本來就存在,可是 ChaptGPT 一開始沒有,但是現在出現,老實說大家也沒有太意外。

那至於在其他的部分,我覺得主要是升級版,因為就跟剛剛季全講到的一樣,第一個就是說,它產生文字的速度,它有公布一些數據,大概是兩倍——產生文字的速度是兩倍快;然後呢,它一次能閱讀的文章長度是變成八倍,是變成八倍長。

所以從這幾個方向,你可以看出是一個升級版,就好像一個記憶體或容量擴充的意思,這部分其實沒有太令人意外,因為整個運算的速度或本來的技術就一直在優化了,速度變快、成本降低、又可以看更長的文章,就是純粹技術上的升級。

這次 OpenAI 還特別公布:它去拿 GPT-4 去測試各種不同標準的人類考試,而且幾乎在所有考試之內都是前 10%,我覺得這個才是這次最大的衝擊,因為之前大家會覺得 ChatGPT 去年年底出現之前,考試分數 60 分是及格;ChatGPT 出現之後,大家覺得,哇……以後要考 80 分才算是及格,不然機器已經考到 80 分,可是現在的問題是:糟糕,你現在考不到 90 分或 100 分,你就是不及格的——我覺得這個衝擊對人類社會才是最大的。

戴:我覺得這個很麻煩,就是 GPT-4 它已經很會考試了,大部分的考試包含律師考試、GRE 考試、GMAT 考試、SAT 考試都可以拿 90 分以上。

我回頭看我家兩個小朋友,他們的日常作業,其實日常作業的形式幾乎都是考試模式;現在的狀況是,他們幾乎寫作業前就用 ChatGPT 在幫他們寫作業。

程:就先去問問它就對了。

戴:先去問問它、照樣造句也問它。現在我的困擾並不是他們不會使用,而是通常 ChatGPT 給的答案會超過一個小學生會有的水準,所以它如果拿這個東西去交給老師,我會覺得不太 ok,第一個因為可能會被發現,可我又說不出哪裡不太對,那這是不是意味著,短期會有很大的衝擊?會衝擊我們開始以後的所有人類的學習、教育、工作模式?

GPT-4 變得超會考!考試的意義將徹底改變

如果說 AI 已經這麼會考試了,即便譬如說 GPT-4 它很會看圖片,我猜想就像你剛剛說的,本來 AI 就很會看圖片,所以在實務上、在 GPT-3.5 釋出之前,已經有很多 AI 會應用在醫療 X 光片的篩選上,譬如說肺癌,因為它只要圖片辨識,所以它的鑑別率已經高於大部分的醫生,去鑑別那 X 光片。

當新的 ChatGPT-4 它把圖片解析能力加上後面的文字邏輯能力,它可以看出……我們看到最明顯的例子就是說,如果我問 ChatGPT-4 說這個圖片上有一大把的氣球,如果剪掉它會怎麼樣?它說氣球會往上飄。

第一個是它要先能夠辨識那是氣球,第二個它要知道氣球如果是以這種型態的,球在上、線在下,它會有一個後續的可能性,它資料記憶的背景都還是網路上這些數據、這些資料,但它卻能給出這種推理式的,所以它其實是很多段的 AI 把它串聯跟整合在一起。那未來的孩子怎麼辦?

程:哇我覺得這真是一個大問題,首先是老師現在應該很頭痛,在整個教育產業,考試是一個主要商業模式,如果未來沒有考試、或者不知道怎麼考試的話,應該說教育產業已經在被裂解當中。

所以你看 GPT-4 在做標準考試時幾乎全數通過,而且是相較於人類是前 10% 的成績,已經是頂尖水準,我覺得無論是老師、教育機構,或者是教育產業,應該會有些短期的因應措施。

比如說,考試的場域我們要維繫住,但是絕對不能讓學生使用數位科技;短期的因應措施可能是這樣,我想這樣做一定是可以度過一段時間,因為雖然想是解構但也不是一夕崩盤,那些商業模式還是會存在。

但是中長期就要去思考,就是說我們的考試目的到底是為了什麼?是為了篩選出頂尖的學生嗎?如果是這樣,既然 AI 都可以考得比人類還要好的話,我們篩選出頂尖學生的目的又是什麼?是為了證明他學習真的很不錯,所以是證明他的一個軟性心態嗎?而不是要去證明他的一個硬性技能?這完全是不一樣的思考方式。

以往的資格考為了拿證照、為了通過入學的一些測驗,那未來考試是為了什麼?是為了證明這些應技能,還是為了證明這些學生的心態是正確的?我們可以確定的是,中長期必定要改變考試模式。

因為考試已經沒有人考得過 GPT 了,而且一直在進步當中,接下來不只是 GPT-4,還會有 5、6,那大家就可以想想,AI 在這些標準格式已經完全超越人類的時候,不只教育者,連家長都要開始想說,小孩子未來要怎麼教育。

我覺得沒有人有正確答案,因為學習這件事情,老實說也跟個人非常有關係,以後可能是一個超個人化的學習;超級個人化學習的時代,因為我們現在在看學習的時候,我們要看每一個技能,人類跟 AI 的相對能力來決定短、中、長期目標。

generative AI synthesis engine

一開始大家的能力都是初階的,那這個時候 AI 就是你的老師,你到中階的時候——至少以現況來說——已接近 AI 了,你就開始共學;你到高階之後你超越了 AI,在某個技能上面,AI 是你的助理,就像我們現在很多成年人一樣,無論是醫師、律師,或一些比較專業技能的工作者,AI 是作為他的助理,那是因為他的能力相較於 AI 目前還是超越的。

一旦 AI 開始在某些技能,一開始就超越人類的話,它在這個領域會始終就是人類的老師——假設這個技能還一直存在的話,比如說程式設計,比如說一些不擅於寫作的人,他們可能就會一直從 AI 學習。所以我覺得人在學習的任何一個階段,跟 AI 互動的關係會改變,這都是因為他的能力跟 AI 的相對能力所造成的。

身為一個家長,在規劃小孩未來的時候,其實也是邊走邊看:一方面 AI 還持續在進步,我們現在很難預期哪些能力會發展到一個程度就遇到瓶頸、哪些能力會一直維持在人類的前段班,所以我覺得無論是教育或考試的解構,我目前的看法是這樣子。

當考試從 Open book 走向 Open AI,老師適應 AI 的速度不能慢!

戴:我跟你有一個交集點是,我也高度懷疑它會變成超個人化的學習,會往這方向走,但是你在講的時候,我想像的應對策略是這樣:假設今天有兩所學校,其他條件都一樣,但有一所學校是允許學生不只是 open book,他可以 open phone 或 open computer,也就是說他可以用 OpenAI 來考試;還有另外一所學校,就是你剛剛講的,考試的時候不准用任何聯網設備,我覺得我會比較想要把孩子送到前者。

程:了解,如果整體來說的話,老實說我會跟你做一樣的選擇,但我覺得後者在某些時刻有必要,我舉個例好了,科技的發展就是這樣:GPS 越發達,路痴就愈多,大家都用 GPS 大家都變路痴,所以隨著科技進步,人類是慢慢在失去一些本能的,這就是說,我們到底希望人類本能維持到什麼程度?還是說以後人類躺平,任何獨立求生的技能都不要了?

戴:我覺得這邊會有個判斷上面的取捨,就是說那我們的 counter strategy(應對策略)是什麼?老師的策略是什麼?老師的策略應該是要去…..他其實也應該利用 AI 來去看這些學生使用 AI 的情況怎麼樣,所以當今天魔高一尺的時候,道高就要一丈啊。

也就是說,我們不能讓老師沒有 AI 的工具來去對抗有 AI 工具的學生哪。所以這邊有個更廣義的對抗式網路。

程:對,我覺得在這樣的場域之下,因為現在的高等教育本來就有所謂的 open book,它其實就是擴展了考試的涵義和範圍,不是說我到底腦袋能塞多少東西,可以不看課本就記住,因為大家也知道在電腦出現之前、之後,這驗事情沒有意義了,所以開始出現 open book 的考試。

如果我們現在也開始出現 open internet 這種考試,或者 open AI,真正的重點在於老師要衡量的其實是更廣義的事情,首先你的考試形式就不可能是要制式化的答案,這是不可能的;幾乎也不可能說你要一個論證式的答案,因為論證 AI 現在也做得比你好,你考試的維度、自由度可能就要變得更廣。

你期待學生在 open AI 的這種考試之下,你可能期待學生交出的成果會是更廣的,他可能在現場做一個專案,或者完成一個程式設計的東西,可能期待的水準要更高,因為有 AI 當成是 superpower 在那邊,我覺得這就是一個。

那再來就是說,老師這邊。你看 OpenAI 在發表 ChatGPT 3 個月內就發表了對抗的工具,它其實有發表一個對抗的工具,但因為大家的焦點都在 ChatGPT 上面所以就忽略了這東西。

它直接發表了一個,我可以協助你偵測哪些東西是 AI 產生出來的,跟季全講得一樣,OpenAI 也知道這件事情,就是道高一尺,魔也要高一丈,不能只有一邊的發展;它也推出了一個偵測的工具,所以老師就必須要會善用這工具;除了他自己會善用之外,他也要教學生有這樣的東西存在,老師也才具備真的能夠衡量學生的能力。

戴:至少要站在同樣的基礎上嘛。所以現在學生 adapt(調適)AI 的速度非常快,反而我們第一個要先提醒或注意的,是老師 adpat AI 的速度不能太慢。

程:對,其實現在已經出現小孩子本來就會去看 YouTube 影片嘛,找一找就「欸老師你剛剛講錯了」,當場嗆老師,有些老師會生氣,但其實這種在現在 AI 的時代會更常見。

戴:好,我先拉回來跟你請教 GPT-4 或者是這種生成式 AI,它的可能應用。我以前讀過一本書,是 Andy Groove 寫的,中文翻成《十倍速時代》,英文叫作 Only the Paranoid Survive,只有偏執者得以生存。 它裡面有個概念我覺得很受用:當你看到世界上或社會上有某個技術,或某個現象出現的時候,它一開始可能小小的。

它教了一個模式就是說,把那個現象或技術放大十倍,來想像十倍的速度、規模、或能力,對於現有的世界、經濟、產業會有什麼樣的衝擊。他用這種類似愛因斯坦講的思想實驗,你用想像的去做一個 experiment,就可以比較能夠理解到熊彼得講的破壞式創新。

所有產業都會被顛覆:AI 將帶給人類真正的「十倍速時代」

iKala co-founder/CEO 程世嘉 Sega

戴:所以當我試著用這樣的觀念去套用現在的 AI,也就是我想像在很快的未來,我們就擁有一個十倍於 GPT-4 的能力、強度、運用範疇的一個新 AI 基礎的時候,我們光是很會考試,它就顛覆了整個教育邏輯跟系統,那生成式 AI 它的原理當然是互動式的網路,它可以有一個 AI 生成東西、另外一個 AI 去檢測這個東西適不適合或 O 不 OK,再給我們來閱讀。

其實在實務上面我們已經看到有生成式設計,例如它把像這樣的 AI 能去做零件設計,像 NASA 美國太空總署就用生成式 AI 去做太空船零件設計,它給它一些參數,或給它所有過去某個零件的目的、它的 spec(規格要求),包含它的強度、飛行時數、金屬一些細數等等,結果 AI 就可以很快設計出人類工程師從來沒有想過的結構。

戴:醫療界連發新藥或找新的蛋白質,也用這樣的模式去做;其實我懷疑不管是 ChatGPT 或 GPT-4,它給我們的可能不是正確的答案,它給我們的可能是最靠近網路最大多數人、最集中的那個答案。

程:這觀察完全是正確的,因為 ChatGPT 模型設計的原理和目的,就是產生出它覺得人類最想看的答案,這個軟體設計目的不是產生最正確的答案,它是產生出下一句話、機率最高、最通順,或人類最想看的答案。

所以就跟季全講的一樣,因為這樣屬性的關係,大家會發現怎麼 ChatGPT 會胡說八道,而且它很有自信,當然是人設的問題啦,但是它胡說八道的原因是因為它產生文字是有一些隨機性的、它有或然率的,假設它跟你說,一加一等於三的話,不是因為它是一個智障;它的訓練資料是來自整個網路上,它可能覺得一加一等於三,因為它很好笑、因為犯了這種錯誤,這種答案是很好笑的,它覺得很好笑的答案可能是人類想看的,所以它把一加一等於三列為它產出機率最高的一段文字。

ChatGPT 從來不是在追求正確性而設計出來的一個答案,這件事情在數學上先初步已經被驗證了,美國一位華裔天才數學家陶哲軒,他最近也在玩 ChatGPT,他就發現每次 ChatGPT 即使視同一個問題,出來的答案都不一樣,這代表他有一定程度的模糊性和隨機性。

他就舉了一個很簡單的例子:我們都學過函數,我們不要講太複雜的東西,函數是每個數字代進去、每次出來答案都是一樣的,不會說每次代進去,怎麼算答案都不一樣,數學上是這樣子。

但 ChatGPT 就不是這種屬性,它的屬性是說,你丟一個輸入進去之後,它產生出來的結果是有機率性、概率性的,那為什麼當時要這樣設計呢?為什麼 GPT 要設計成這種樣子?因為它其實是一個 trade-off(權衡),等於是一個等價交換。一般的電腦程式,一加一永遠等於二,大家都知道嘛,但這種電腦程式的問題在於說,它不能去處理不確定性。

不確定性的問題就來自於說,人類會跟機器一直亂講話,我們講的話是很 free-style 的,是很沒有邏輯、很沒有結構的,一般的程式是完全無法處理這種輸入的,它就會說我不知道你在說什麼,它無法解析你的語法結構,ChatGPT 之所以設計成輸出就像是個機率分布,它換得的能力是,它可以去處理人類對話的高度不確定性和不預期性,人類跟它亂講任何事情,它都有辦法回答。

所以這就是當時設計的出發點不同,造成它最後的結果是每次都給你正確的答案,這不是它的目的。但就跟我們在讀機率一樣,每一次的答案、每一次丟骰子,它都會有變異數存在;變異數越大,你會覺得它的答案好像越來越離譜,那 OpenAI 這次升級 GPT-4,它就其實是要把這個變異數縮小,讓這個常態分佈趕快盡量往中間集中,所以它其實是從反過來,它其實是在訓練 GPT 接近真實答案的一個過程,這跟我們以前在設計電腦程式是完全反過來的一個概念。

戴:好,我們繼續回到節目。我剛剛聽你分享這段,我覺得它帶來的衝擊比預期更大,怎麼說呢?因為你在講的同時,我就想了一下,我把這個模式套用在每一個垂直領域裡面,例如新藥研發,它只要確保數據來源越正確,其實就可以越降低它後面說錯的機會,因為我們現在已經是 2021 年前,其實已經過了快兩年了,第二個是它是全網路的資料,所以它其實在資料來源、在母體就沒有先做篩選,所以如果網路上面某些想法、言論、情緒,甚至是事實本來就錯的話,它當然 garbage in, garbage out (垃圾進、垃圾出)。

所以第一個是說,我們要先確保數據的分類,分得越細越好、來源越正確,確保它後面品質是越好的。第二個,是我們在問這個問題的時候,問題的區隔越窄越好,例如假設問題設定是下一個圍棋——好幾年前我們也為此感到興奮過,AlphaGo 的時候,其實它還不久以前哦,但我們現在感覺好像是上一個世紀……

程:對,上個時代的事情。

戴:誰還在弄 AlphaGo?我已經不確定它是幾乘幾了。對,太快了。所以如果我們能夠界定這個問題的定義越明確,AI 能夠給的答案,當然要在加上資料的正確,就越正確。

程:沒錯。

戴:今天我們把它應用在室內設計,我們如果跟它說,你幫我設計一個 30 坪的房子的室內設計,我們只給這個條件,它不知道這 30 坪的房子是要給幾個人住的,所以它就給你最近的答案,30 坪的房子大部分是給 4 個人住的,它就給你譬如說三房兩廳,它會給你一個最接近它網路上找到的離散值綜合起來。

但如果你給他更精細一點,幫我設計一個 30 坪、4 個人住的,兩個是 12 歲以下小孩,就會設計得更貼近你給的這個問題,跟這個定義,所以這樣的模式是說,如果說我們有熟悉這樣 AI 的特性、資料來源,跟我們問問題的方式,這個定義越清楚,甚至我們可以直接跟它說,你可不可以幫我設計一個房子,這個房子是給 4 個人住、兩大兩小的廚房,它就可以很精確地先設計廚房,而不會粗略地去網路上找最接近 4 個人住廚房的樣子;反正你問得越對它就給得越對。

程:沒錯。

戴:那這樣的模式呢,如果應用在醫療、教育、運輸,甚至軍事、國防。

程:對,這就是我要講的東西。

戴:我現在已經感受到這個恐怖了。

程:因為剛剛季全其實講到很重要的一個點,就是十倍速這件事情。人類其實很擅長線性思考,就是逐步改善,但是很難去想像這些技術再擴大 10 倍、100 倍會怎麼樣,我們現在看到的這個衝擊已經開始了,比如說在設計新藥的時候,不只 OpenAI,DeepMind 之前也推出一個蛋白質摺疊的 AI 叫 AlphaFold,已經徹底改變產業研究的方式。

延伸閱讀:兩大頂級 AI 演算法開源!Alphafold2 蛋白質預測準度逼近滿分,將顛覆生醫產業樣貌

以往蛋白質摺疊它需要大量運算,才能找出幾種不同的模式,這困擾科學家已經 5、60 年的時間了,但是 AlphaFold 出現之後,能在短時間內直接找出兩億種蛋白質摺疊的結構,兩億!我們以前拚死拚活好不容易弄了幾十萬種;一下子,兩億。那已經不只是十倍,是萬倍以上,就是說它其實已經完全是以終為始來看。

我們現在的科學研究變得有點弔詭,就是說,AI 找出了兩億種,再從兩億種裡面去挑到底哪些是人類適合用的,製成成藥,所以它變成以終為始、反過來了:我先知道了結果,我再去看說哪些蛋白質能用。

延伸到更多領域,包括數位科技,都會受到很大的衝擊,為什麼?簡單來說,AI 以後會重新設計自己,各位可以看到我們現在無論是學程式語言、網路語言,這些東西是為誰設計的?是為人類設計的,所以它其實是沒有效率的,因為人類要層層抽象、去想辦法跟機器溝通,程式語言要很貼近人性。

機器才不管你那麼多,我管你什麼物件導向程式設計,那根本不重要,那對機器來說是沒有意義的。我覺得連程式語言接下來也會受到很大的衝擊,是因為已經開始有 AI 科學家用 AI 來改善原本電腦架構的設計,電腦架構的設計現在整體來看是相當沒有效率的。

戴:之所以要用圖形化介面是因為我們要看嘛。

程:是因為我們要看哪,但 AI 不用看。

戴:AI 也不用滑鼠。

程:對啊,這些都是對人類設計的,所以,當我們去想像這些時,你就會發現,哇,這個衝擊不是十倍,是徹底改善人類文明的「奇點」,不只是開始的起點,而是一個奇怪的奇點,同時發生了。所以我一直在想,2023 年其實是人類新文明開始建構的一個起點,因為拉長時間來看,你會發現數位科技可能只是我們在發展文明的一個過渡性產物。

因為 AI 在設計——包含我們剛剛講的室內設計——這概念其實很早就有:computer aided design,就是電腦輔助設計,只是不同的是,以前可能用 Photoshop 或 CAD 在輔助設計,現在你有一批 AI 大軍要去指揮它,你要怎麼用都可以。

我們現在還在玩生成式內容玩得很爽,但實際上它對每個領域的徹底改變都會出現——新藥的研發、國防工業的應用、AI 自己重新設計電腦系統……這些馬上就會發生,而且我現在已經真的不敢預測什麼時候會發生了,因為我們想像中好像這些都是慢慢會發生,可現在已經不是這樣了,睡起來就發生了。

戴:對啊。我覺得你剛剛講的不是人類新文明的奇點,那個是 AI 新文明的奇點耶。

程:是。

戴:我覺得跟人越來越沒有關係,如果 AI 可以設計 AI 那跟我們有什麼關係?它根本不用在意我們。

程:就是看到底人類最後跟技術的關係是什麼?因為你看,人類在做太空探索,最近也是很夯的例子,矽谷的富豪都一直在做太空探索,因為這件事情也會因為 AI 變得蓬勃發展。其實小學生都會問一個問題:我們為什麼沒有去找外星人?它就有一些物理的解釋,比如說因為外星人住得很遠、我們太空船沒有那麼厲害。

天文學家其實有提出一個奇想,如果人類要長時間地去探索外星文明,現在沒有飛得跟光速快得機器沒有關係,但是我們可以造出一輛機器,它是可以自我複製,或零件功能壞掉時可以自己趕快去造出一個新的自己,新的自己找資源後幫自己加滿油,繼續做太空探索,它可以無限制地把範圍延伸到十萬年以後、十萬光年以外,連這種領域它也讓這種事情變得可能。

這其實就像季全講的,AI 新文明正要開始。

戴:它不一定跟我們人有關。

程:它不一定跟我們人有關,因為已經超越我們的範圍了,因為我們的年齡頂多一、兩百年,可是你看 AI 自己去做外太空探索的話,它自我複製有可能做到十萬年、一百萬年,它在新的星球找新的資源,把自己重製,再去到更遠的地方。

AI 會有「情緒」嗎?其實只是更為高級的模仿

戴:大家會討論的一個想像爭議點是說,AI 會不會有情緒,我們從實證上來看,越高等的生物,就是它細胞組成越多、器官越多,甚至有抽象思考的能力,反正只要是越高等、腦容量越大的……我用這些比較模糊但精確的定義,來定義什麼叫高等生物,它的情緒反應是越強的。

他們會有一個觀點是說:為什麼植物會沒有情緒、動物會有情緒?人的情緒又比動物更強烈;我們很常聽到人家說迷路、羚羊,或鳥,他們在死亡前或死掉時其實是蠻平靜的。生物學家有個理論說,情緒是為了讓高等生物更適於生存所演化出的機制,例如憤怒跟恐懼,它讓你去決定,它其實是給你一個 motivation(動機)或一個訊號,讓你知道到底是要戰鬥還是要逃?按這個邏輯,AI 其實很快會有情緒。

幾年前有生物學家的論文說,植物其實是有情緒的,它的定義是這樣:當植物意識到正在被害蟲啃食的時候,它會分泌出一些驅趕害蟲的化學物質,植物學家把它稱為植物的情緒,這表示植物在憤怒跟不高興,要這樣講也可以啦,那如果要這樣講的話,其實 AI 可以根據它的目的、更高等的一些它要發展的方向,可以有一些應對措施,也許它的情緒跟化學物質、也許它不是化學物質,它可能是一些訊號。照我們最廣義的定義來說,如果植物學家定義那樣叫有情緒的話,AI 其實很快就有情緒了,因為 AI 也在演化嘛。

延伸閱讀:AI 機器人會「有感覺」嗎?簡立峰親自解答,人工智慧在語言辨識上的最新進展!

程:了解,我覺得這件事情可以這樣看:人類世界其實是分成有機體跟無機體,這是生物學最上層的分類,就是分成有機跟無機。那人類和動植物屬於有機體,我們就是由一些生物機制所組成的,那我們的情緒就跟季全講得一樣,情緒來自於內分泌,演化到現在的現況其實就是為了生存,無論是季全剛剛舉的植物有情緒的例子,或者我們的杏仁核會偵測到危險,激起我們腎上腺素的分泌、讓我們逃跑,主要是為了生存,所以這個是大自然的機制,在對於有機體產生的一些東西,那情緒也是,某種程度,為什麼它會被保留下來?是因為生存。

那無機體它到底會不會有求生的慾望?老實說現在這件事情是有爭議的。因為,我可以想像一個情境:機器它現在對外界的反應,其實是它對於外界最想要看到的東西、最高的機率,它把它輸出,無論輸出文字或圖片,它就是要滿足外界最想要看到的東西。

那我們剛剛沒有提到的 GPT-4 一個特點:它其實已經具備推理能力,推理能力就已經展現在考試當中,所以以往大家覺得 GPT-3 沒有推理能力,錯了,它只是推理能力還沒有那麼好,現在已經有推理能力了。

那推理能力的話,我們就可以延伸去想說,它會不會開始被置入,或者是它已經從網路上廣大的資料,學習到求生這個概念;求生這個概念,在整個前後文還有脈絡是存在的,它有可能出現這個反應,例如人類威脅說我現在要把你關掉,它就會開始哀求說不要把我關掉、我想活下去…… 什麼的。這個在生物機制上,它還是沒有那種有機體的生物機制,或是內分泌。

戴:沒有意識啦。

程:對,因為意識我覺得還很難定義,它肯定是沒有意識的,但它展現出來的行為會非常非常像人類,但它還是一個高度的模擬,它的模擬是來自於說,它從網路大量的資料知道,噢原來有這種求生的概念,在求生的狀況之下我必須展現出、或說出什麼樣的話,比如求饒、比如拜託拜託不易把我關掉,這個也是人類教給它的,只要它還是一堆電路板,它就是一個執行和模擬,只是人類會不會被騙?重點是人類會不會被騙。

我一直討論到這個問題的時候,我都覺得真的不是機器或感情有沒有產生意識,而是人類以為它有感情和意識,這個才是所有的麻煩。

戴:這塊也很麻煩沒錯,但我反倒不那麼擔心,其實我的驗證標準很簡單:哪一天我們要去拔 AI 插頭的時候,它會反抗,就中了。

可是這個機制它會不會發生?會喔,某些安全設施,是工程師去設計出它必須要保護這個設備的時候,那就會呀;那如果說當有某個機構,實體的建築或機構,如資料中心,它把警衛或保全機制 AI 化了,其實 AI 它不是故意要去針對你,而是針對它的保護機制,所以我們沒有辦法阻擋它。

程:有可能,我相信這些事情已經在發生,因為軍事、國防這種敏感度……

戴:就是這個啊。

程:對,就是這樣。AI 可以被設計去攻擊人,這是絕對辦得到的,我覺得這就是走向反烏托邦一個蠻可怕的方向,各國政府我覺得要趕快針對這塊來做規範和引導。

小至個人,大至國家,沒適應 AI 時代者將被淘汰

戴:這個就是我要直接進入結論,而且我最核心想和你討論的事情。我們剛剛提到了教育,學生使用 AI、老師如果不會使用 AI,那基本上這老師很快就會被淘汰;如果今天我們的對手,在國防或軍事上會使用 AI、我們不會使用 AI,我們很快就會被淘汰。

因為包含他們模擬的腳本、使用 AI 去建構 AI 國防或攻擊的模式,你給它的參數越多、問的問題越細,光是從 AlphaGo 的經驗來看,它下出來的棋,是連全世界排名一、二、三名的棋士都說,我從來沒想過這樣的下法,所以當我們在各個領域用這樣的參數去給這些 AI 的時候,它會很容易生出……如果連圍棋這種條件這麼侷限,都可以有這麼多種下法,而且是超越全世界最厲害一、二、三名的棋士的經驗的話,更不要說更個領域,尤其最恐怖的是軍事跟國防。

所以我有點懷疑我們的下一代,或者是我們要訓練的不是要去跟 AI 比提出答案,或提出解答的能力,而是給參數跟問問題的能力。

程:對,完全是,我覺得就是國家、社會、企業或個人,你如果在接下來完全沒有 AI 的政策和對策的話,很快地國家會走向衰敗、企業會走向衰敗,因為每一次的技術進步就是更多的兩極化,那這次更極端,因為它是一個通用型科技的產生,它不是一個優話、它是一個新的基礎設施的發明,就跟我們當時發明電一樣。

電這種東西,AI 其實變成新的電力,那這種時候,如果你在這個時代說,欸我不太會用電耶,我不太會幫我的手機充電,哇那人家以為你是哪裡來?坐時光機來的原始人?

以後就是這樣,如果你跟人家說,我不會用 AI 耶;軍事國防政策,沒有什麼 AI 的成分在裡面,你就是上一代的原始人,那這個對國家、社會的影響是非常大的。

戴:懂,我懂,因為他的潛在衝擊力是超過電的使用,比前面這個工業革命,就是發明引擎啦。

程:對,沒錯。

戴:好我們今天非常謝謝 Sega 來到我們節目。

程:謝謝季全。

你喜歡這個內容嗎?收聽並關注〈全新一週〉,專屬決策者的 Podcast!從正在發生的變化中,找到未來線索,創造全新世界。

別錯過近期收聽率最高的節目:第三波網路革命來了:2023 將是生成式 AI 爆發年!|S2 EP61 Ft.簡立峰

延伸閱讀:【看懂微軟 AI 發表會】微軟想狂勝 Google,而且這次真的更有 Guts

延伸閱讀:GPT-4 面世這天,Google 再與 OpenAI 正面交鋒!但沒有選擇從「搜尋」下手——為什麼這是一步精采好棋?

(責任編輯:藍立晴)