相關新聞

【趨勢人物96】電腦科學家戈貝克 帶你看盡AI的未來

【趨勢人物96】電腦科學家戈貝克 帶你看盡AI的未來

戈貝克對於AI的當前發展和其對人類心理的影響瞭若指掌。 圖/Amazon.com

【趨勢人物96】電腦科學家戈貝克 帶你看盡AI的未來

谷歌有一款AI圖片生成器,他們加了防護措施阻止偏見,在產出《獨立宣言》簽署圖片時,照片很棒,但與事實不符。圖/翻拍自TED

【趨勢人物96】電腦科學家戈貝克 帶你看盡AI的未來

用聊天機器人「ChatGPT」寫新聞稿,很方便,但內容有許多不實,需糾錯。圖/Prompt Advance

【趨勢人物96】電腦科學家戈貝克 帶你看盡AI的未來

AI會超越人類的概念主要源自各種跟AI有關的電影。圖/DLabs.AI

【趨勢人物96】電腦科學家戈貝克 帶你看盡AI的未來

我們可能會擔憂機器人跟人類搶飯碗,但其實沒那麼簡單。圖/123RF

文/楊慧莉

當前進入人工智能的時代,讓人類百感交集,既期待它的優勢造福人類,又憂心它超越人類智商,帶來不利人類的後果。電腦科學家戈貝克藉由檢視這種智能最受關注的承諾和隱憂,突破種種迷障,帶領世人充分掌握AI科技……

時代序曲  AI浪潮快又急

珍妮佛‧戈貝克(Jennifer Golbeck)是一位電腦科學家,馬里蘭大學資訊學院的教授。她研究人工智能(artificial intelligence,簡稱AI)和社群媒體,聚焦於科技對心理和社會的可能性影響,對AI如何與信任相交、如何影響人們的行為和信念尤感興趣。因此,她對於AI的當前發展和其對人類心理的影響瞭若指掌,希望能藉由自己的研究和見解,幫助世人釐清一些有關AI的問題,在面對AI將無所不在的未來時有更正確的觀念、更踏實的態度。

AI危險之說緣起

首先,戈貝克指出,人工智能在某些特殊任務上所表現的,已比人類好,如AI已可以下棋並超越棋王;不過,幾年前,生成式AI進入普羅大眾後,就有愈來愈多關於通用人工智慧(artificial general intelligence,簡稱AGI)的談論,指稱AI在各種任務上的表現可以與人類並駕齊驅或是超過人類,而那些思索通用人工智慧的人開始憂心起科技一旦有這樣的表現水平又代表什麼。

有科技人就跑出來宣稱,「我們建造的AI既強大又危險,將對人類文明造成威脅。」甚至還有人去跟政府說,「也許你們需要規範我們一下。」

通常,科技產業弄出一個強大的新工具,並不會說它會對人類造成一種存在式的威脅,而需要受限。那麼,為何我們會聽到以上言論呢?戈貝克將之歸結於兩個主要原因。

一個原因是,如果有這麼強大的科技會毀滅人類文明,在現在和彼時之間就可大撈一筆錢。畢竟,想讓投資人掏錢的較好方式就是警告目前的工具還很危險。另一個原因是AI會超越人類的概念其實來自電影。我們都看過那些電影,光是思索有了那些我們投入心力研發的工具所代表的意義,本身就很有娛樂性。「事實上,娛樂效果還很十足,讓我們都忘了要在真實世界去處理AI所造成的問題。我們愈思索這些不可能的未來,就愈少花時間去想想要如何糾正深度偽造技術問題,或是現在AI已被拿來決定誰該出獄的種族偏見問題。」

機器人也會瞎掰

那麼,通用人工智慧是否已完成建構?有些人已確認完成。企業家馬斯克(Elon Musk)則說,一年內就可完成。不過,戈貝克認為,如果我們要完成通用人工智慧,或是想讓它們來徹底改變我們的工作方式,我們還需要讓這種科技處於一種能力持續提升的軌道中,這可能是一種路徑,但我們還看到了另一種可能性,即這些工具已基本完成所需能力,未來在穩定水平上逐步改良。「因此,要了解AI的未來,我們需要去看穿它的各種炒作,深入研究,從技術上看看有哪些可能性,也想想哪些領域需憂心、哪些領域可安心。」

戈貝克認為,如果我們想了解AI的各種炒作,一個必須解決的主要挑戰就是可靠性,而這方面的演算一直都是錯誤的。比方說,她每天都使用聊天機器人「ChatGPT」。當她要寫一份新聞稿,總結極右派團體在留言板的討論,就會下載相關數據,ChatGPT就會幫助她寫出摘要,比她自己用手寫還有效率。只是,她還得糾錯,因為機器人會誤解一些事,還會斷章取義。也因此,她無法完全仰賴它代勞。可見,AI的可靠性真的很重要。

在可靠性方面,有個很棒的科技術語說明AI很多時候會瞎掰鬼扯,叫做「AI幻覺」。在新聞稿中,戈貝克就問ChatGPT,有人恐嚇要使用暴力嗎?有的話,請給出原句。結果,機器人給出三條有暴力威脅的信息,但聽起來就不像人們會放在留言板的內容。於是,她回到數據中,也真的沒有人說過這樣的話,真的就是憑空捏造出來的。

AI離精準有距離

儘管「AI幻覺」是一個問題,但戈貝克並不覺得它可以解決,因為生成式AI總在瞎掰,可以在你問問題時憑空捏造一個答案或圖片,不像搜尋引擎會找出正確的答案,未來能否讓它編出正確的東西,尚未可知,至少目前離正確還有一大段距離。

不過,仍有一些領域嘗試解決這個問題。如法律界,他們希望AI可以協助書寫法律摘要或做研究。現在有些法律研究公司號稱他們在使用「無幻覺」生成式AI,但有史丹福大學研究者進去檢視,發現這些「無幻覺」工具表現最好的也仍有百分之十七的時間裡會產生「幻覺」。

據此,戈貝克表示,我們目前打造了一個很棒的科學工具,可以向它做出任何提問,大概百分之六十、七十甚至八十的時間裡它會給出合理的解答,但如果我們要仰賴這些工具,就得忍受它有百分之二十到三十的時間裡會出錯,即目前尚無有個真正有用的模型。

曲終人在 誰怕AI搶飯碗

顯見,AI工具想要變得有用,需解決可靠性問題。戈貝克認為,這需要從兩方面著手:一個是提供更多的數據,另一個是其技術本身得改善。

數據和技術問題

那麼,我們要從哪裡得到那樣的數據?

戈貝克表示,其實科技人已從網上取得所有可靠內容,再者是即便找到的數據再多出一倍,也不代表AI會變得兩倍聰明;另外,生成式AI的成功在於擅長產出低品質的內容,用在一些無需太多內容的廣告上,這讓問題變得更加複雜。

她進一步指出,就算解決了數據問題,也得改善技術問題,而過去幾年已投入五百億美元,用以改善生成式AI,結果是只創造了三十億美元的營收,所以無以為繼。或許,目前還言之過早,有些公司可能還會找到其他方式使用這種科技。

不過,戈貝克深感不管科技公司有什麼打算,如果要投入千億美元改善模型,怎麼看都沒那個價值。這讓人開始思索到底在AI研發的世界裡有哪些需擔憂,哪些只是庸人自擾。

費用和偏見問題

首先,最讓人擔憂的事莫過於AI要來搶飯碗。很多人有那樣的疑慮,但戈貝克認為問題本身有個關鍵性的誤解。

她舉一般的公司運作為例。假設有個公司請得起兩個軟體工程師,然後公司提供工程師生成式AI協助寫程式,這是AI擅長的,如此一來效率加倍。但公司其實有兩個選擇,可以辭掉一個,讓剩下的那個做兩個人的工作,或是仍雇用兩個,讓效率加倍,賺進更多的錢。那麼,何不雇用兩個,賺取更多的利潤?問題就出在AI很貴並不划算。如果用AI,一年要花上十萬美元去做一個人的工作,聽起來就很貴。再者,現在還有低價的開源軟體供公司安裝使用,或許運作效率沒有旗艦型的AI模型那麼好,但運作上只要有一半的好,價格也真的便宜,誰會一年花十萬美元讓正宗AI代替一個正式員工?

因此,工作方面無需太過憂心。但AI的發展還是有些疑慮,有許多尚未解決的問題。戈貝克已參與AI建構二十多年,明白其中一個問題便是,如果我們用人類數據訓練AI,AI就會採用人類的偏見,而我們還無法修補這個缺失。

目前,已看到這些偏見開始出現在生成式AI,大家的直覺反應便是加上一些防護措施阻止AI做出一些帶有偏見之事,但其實很難,因為AI會見招拆招,而防護措施本身也會出問題,如谷歌有一款AI圖片生成器,他們加了防護措施阻止偏見,在產出《獨立宣言》簽署圖片時,照片很棒,但與事實不符。換句話說,在阻止偏見時,可能會造成更多可靠性的問題。

AI並非無所不能

因此,戈貝克認為,如果想要倚賴這種科技延遲決策或取代人類決策者,就得在這種科技被廣泛使用前解決偏見問題。

此外,AI即便發展神速,但戈貝克也提醒,該正視AI和人類之間的差別。她表示,我們人類的智能不是以工作生產力來定義;本質上,它是由我們與他人連結的能力來定義;我們有情緒回應的能力,可以將我們的過去與新的資訊結合,有創意的產出新的事物,這是AI現在不會、未來也不會的事。

「AI或許會模仿,拙劣的模仿真實情感的連結、同理心和創造力,但無法代勞人類的核心事物。」因此,戈貝克一點都不擔心通用人工智能會取代人類文明。如果有人不相信她所說,還是擔心AI魔王會摧毀人類,她請人們記住一件事:不管科幻電影說的有多可怕,萬一真實上演,我們隨時都能關機。

09 12 2024

Email:newsmaster@merit-times.com.tw

Tel:+886-2-8787-7828

台北市信義區松隆路327號五樓

Design by BLC

人間福報官網
學生園地
班級登入