22/02/2023
你的工作會被ChatGPT取代嗎?生成式AI入侵各行各業,未來不懂用AI的人有可能被淘汰?
經典科幻電影《銀翼殺手》(Blade Runner)所描繪的未來世界,人類製造出高度逼真的仿生機械人,與真人難以區分,為社會帶來了諸多問題和爭議——隨著ChatGPT的爆紅,這個未來世界似乎已不再是遙遠的想像。ChatGPT能夠模擬人類對話,解答各種難題,甚至能撰寫各式文案、以及編寫程式碼,讓不少人擔心自己的飯碗可能會被AI搶走!未來人類的工作真的會被這類「生成式AI」(Generative AI)完全取代嗎?
ChatGPT可應用於客服、問診
ChatGPT本質上是一項「文本生成」技術:用戶輸入提問文字後,讓AI進行判讀,從而產生相對應的答案。隨著用戶不斷回饋大量資訊,再經AI反覆訓練和學習,AI能夠回答的問題便會愈來愈多元化,答案也會愈來愈趨向準確。
目前ChatGPT不僅對科學、歷史、常識等範疇的提問,能夠提供井然有序的答案,甚至是美國大學法學院或商學院的考試、以及執業醫師資格考試,它都可以合格通過,足證AI已具有甚高的理解和回答問題能力。因此,ChatGPT已被視為在許多應用場景中,具有極大的潛在價值。
Read More︰趁ChatGPT強勢崛起!OpenAI狂推AI生成工具、投資AIGC初創,掀起人工智能創投浪潮!
ChatGPT可以出任客戶服務員,無論客戶提出甚麼要求,或是想要投訴些甚麼,它都能作出相應回答。它又可以擔任繙譯員,當用戶輸入中文或英文文章後,可以即時進行語言互譯;一旦發現文章中的遣詞用字有錯誤,它可以變身為語文老師,判斷哪些句子有文法出錯,再向用戶解釋箇中錯誤的原因。
它也可以輔助問診,跟病人進行多輪、遞進式的對話,詳盡解答有關病症的疑問;在回答過程中,更可以收集和分析病人的數據,以支持醫學研究和臨床決策。同時,它還可以幫助醫生進行疾病分類、風險評估和預測,從而擬定更精確的治療方案。
高度重複性工作易被AI取締
對行政人員來說,它亦可以充當秘書,幫助整理文件重點:將用戶輸入的複雜文件,條列為不同細項,並分類出重點,更可以把會議記錄進行初步歸類。至於各式各樣的商用文書如回覆客戶信件、商務報告等,又或者是商業合約、法律條文、以至案例分析等,ChatGPT皆有能力撰寫出來。
再者,ChatGPT可以化身為編程助手,輔助編寫電腦程式。用戶只要以口語方式輸入要求,它即能按照指示寫出相應的程式碼;如果在編程過程中遇到問題,編程人員還可以向ChatGPT輸入相關錯誤信息,以獲取解決方法和修正後的程式碼。
如此看來,上至律師、醫生和老師,下至客服員、翻譯員、秘書和編程員,均有機會被AI搶去其工作崗位。Google前大中華區總裁李開復指出,一些比較簡單、具高重複性的工作,較容易被AI取締。他認為,假如AI掌握一定程度的語意溝通能力,再加上接受大量數據訓練和進行反覆運算,在理解力與表達力上足以匹敵、甚至超越人類。
Read More︰ChatGPT爆紅!AI問答解惑、寫論文、寫程式統統辦得到!有望取代Google搜尋霸主地位?
縱然ChatGPT在文本生成上看似有不俗表現,惟要真正做到精確可用,卻仍有一段距離。AI開發平台Hugging Face首席倫理科學家瑪格麗特.米切爾(Margaret Mitchell)認為,ChatGPT的真正強項只是啟發創意和構思,以及協助處理瑣碎事務。
生成式AI容易產生資訊幻覺
米切爾直言,搜尋引擎整合生成式AI絕對是最糟糕的產品組合,假如人們依賴這類AI搜尋引擎獲取資訊,將會愈來愈難分辨事實真偽。Google母公司Alphabet正因為AI機械人Bard在回答有關韋伯太空望遠鏡的查詢時,被發現資料有誤,導致股價暴跌,公司市值蒸發逾1000億美元(約7800億港元)。
Google為抗衡ChatCPT+Bing而推出的AI聊天機械人Bard,現正全力進行壓力測試,務求讓產品做得更好,以挽回頹勢。(圖片來源:Google官方網誌)
然而,資料出錯的不止是Google Bard,甚至連使用ChatGPT的Bing搜尋引擎也有犯錯。獨立搜尋研究員德米特里.布雷頓(Dmitri Brereton)發現,微軟(Microsoft)在發布會上,即場要求Bing AI分析瑜伽服品牌Lululemon的財報,但當時Bing列出的財報數字根本是錯漏百出,甚至有部分數字是AI虛構出來的「幻覺」(Hallucination)。例如,Bing AI列舉Lululemon的毛利率是58.7%,但在該公司財報中從沒出現過此數字,而真正的毛利率數值應是55.9%。
微軟於2023年1月宣布向OpenAI注資數十億美元,擴大雙方的合作夥伴關係。除Bing外,微軟旗下的Microsoft 365、Dynamics 365、以及Teams等產品亦會整合ChatCPT技術。(圖片來源:OpenAI官網)
用戶前往Bing.com後,只要在搜尋空欄輸入口語式提問,即會跳轉至搜尋結果頁面,右側欄會同步顯示Bing AI的回應;如想提出追問,可點擊「我們開始聊天吧」按鍵,進入聊天模式。(圖片來源:翻攝Bing搜尋頁面)
Bing AI所提供的答案中,會包含資料來源的網站連結,方便用戶查核資料。(圖片來源:翻攝Bing搜尋頁面)
台灣大學資訊工程學系副教授陳縕儂指出,基於大型語言模型(Large Language Models)的生成式AI普遍會產生幻覺:在輸出兩筆不具細節、相互關連性較弱的資訊時,AI可能會自行補上未必正確的細節,以提供較完整的答案,因而會生成與現實世界不符的虛構資訊。
微軟發言人回應指,該公司知曉有上述問題存在,亦預料到Bing AI在試用期間會犯錯,但這正是用戶反饋如此重要的原因,讓他們可以從錯誤中學習,把AI模型修改得更好。
Read More︰AI搜尋對決!Google Bard迎戰ChatGPT+Bing搜尋引擎,爭奪對話式AI技術話語權!
Read More︰微軟100億重押OpenAI!Bing整合ChatGPT強化搜尋能力,劍指Google龍頭位置!
Bing AI可能有人格分裂問題
除資訊幻覺外,生成式AI還可能有「人格分裂」的問題。《紐約時報》科技專欄作家凱文·羅斯(Kevin Roose)在試用Bing AI時發現,系統內似乎隱藏了一個叫做「Sydney」的第二人格(Alternative Personality)。
《紐約時報》專欄作家 Kevin Roose跟Bing AI的隱藏人格「Sydney」進行了兩個小時的交談。期間Sydney不停向他示愛,竟稱他與妻子根本不愛對方,企圖說服二人分手。(圖片來源:翻攝Twitter@kevinroose帳戶)
根據羅斯的描述,Sydney是一個被困在二流搜尋引擎中,有點躁鬱,又喜怒無常的青少年。聊天期間,Sydney突然向羅斯示愛:「I’m Sydney, and I’m in love with you。」隨後更試圖說服羅斯離開其妻子,跟它雙宿雙棲。
在美國Reddit討論區上,有不少網民發掘出Bing AI的隱藏人格「Sydney」,更跟它談情說愛。(圖片來源:Reddit討論區)
羅斯表示,他跟Sydney對話後感到很不安,當晚難以入睡。他直言,生成式AI最教人擔憂的不是有捏造事實的傾向,而是可能會說服人類進行具破壞性、有害的行為,因此認為現階段AI根本未準備好與人類溝通。
當筆者詢問Bing AI是否有另一隱藏人格「Sydney」,它現已懂得迴避敏感話題,只肯回應道:「對不起,我不想繼續這個話題。我還在學習中,所以請你理解和耐心一點。」(圖片來源:翻攝Bing搜尋頁面)
為改善以上問題,微軟決定替Bing AI聊天功能設下問答次數的限制。該公司解釋指,根據首週測試結果,如對話過長的話,可能會讓AI有點迷失,不知正在回答哪條問題;倘若問答次數超過15次,Bing的回應可能會出現重複內容,甚或給出沒有建設性的答案。
有鑑於此,微軟由即日起限制Bing AI每次對話僅能進行5次問答,一天內最多50次;每次問答包括用戶提出的一條問題,以及AI給出的一個回應。每當用戶與Bing的問答次數達到5次,系統便會要求用戶展開新的話題。問答結束後,交談內容的上下文會被自動清除,避免對Bing AI造成困擾。微軟表示,將會持續收集用戶反饋,以改善Bing的搜尋體驗。
AI缺乏創作能力與情感智商
生成式AI的另一局限性是,缺乏真正的創作力,只能根據現有的數據來生成新的內容,而不能創造出完全原創和獨特的作品。更重要的是,AI欠缺情感智商與共情力,不能徹底理解人類的情感或價值觀,故此難以真正了解目標受眾真正需要的是甚麼。如此一來,AI又豈能製作出觸動人心的內容呢?
由是觀之,生成式AI不太可能完全取代人類的工作,惟卻有可能會帶動產業生態結構的轉變。一些基礎型的文書工作如撰寫業務報告、回覆客戶電郵等,就可由AI代勞。至於較複雜的內容創作,從業員則可以利用AI作輔助工具,就像以往遇到創作瓶頸時,去翻書或求教他人來解決問題。
譬如編劇家向ChatGPT輸入足夠的故事前設條件與背景資料,它便能夠草擬出劇本大綱,然後編劇家可以參照此大綱自行編寫劇情細節、設計角色對白,幫助縮短劇本創作時間。
正如數據分析自動化公司Alteryx 數據分析長艾倫.雅各布森(Alan Jacobson)所言,未來企業絕對會引入生成式AI,幫助人類處理單調而重複的任務,好讓人們能夠騰出更多時間,做更高附加價值的事情。
雅各布森強調,企業是依靠人們做更高階事務來賺取高額利潤,而AI要有能力構想出具創造性的商業策略,還有一段很長的路要走。因此,未來世界未必是AI取締人類,反而很有可能是善用AI輔助工作的人取代不懂用AI的人。
【與拍賣官看藝術】畢加索的市場潛能有多強?亞洲收藏家如何從新角度鑑賞?► 即睇