fbpx
Search
Close this search box.

ChatGPT風靡全球 AI工具有多危險?

ChatGPT於2022年11月登場,旋即成為全球熱話,迄今已有超過100萬人登記成為用家。這類「有問必答」的人工智能聊天機械人亦引起學者關注,因為它普及起來,勢必會對身份真確性、原創度、消費選擇和決策過程等帶來影響,甚至可能令人失去批判思維。

ChatGPT是由 OpenAI公司開發的聊天機械人(chatbot),在互聯網上學習大量文本,然後轉換成類似人類語言的文本,所以稱為轉換器(Generative Pre-trained Transformer,GPT)。有人用ChatGPT代筆寫論文、繙譯、作詩,以至在約會應用程式寫訊息徵友。

史丹福大學傳播學者謝夫・肯各(Jeff Hancock)教授一直關注AI(人工智能)對人際傳訊的影響,並就此進行研究。他在網上媒體《Futurity》的訪問中談及 ChatGPT 對我們生活的影響,並提醒大家對AI趨之若鶩的同時,也要知道它的缺點。

肯各教授預計,風靡全球的ChatGPT勢將引起更多有關身份真實性、欺騙和信任等課題的討論。 圖片: Andrew Brodhead

肯各教授說,AI技術無疑對人類生活帶來好處,並且可以應用在不同行業,例如為心理輔導人員和教練分擔客戶服務工作,了解求助者的需要和提供基本資料,提高時間管理效率。史丹福大學曾進行調查,結果發現受訪者認為與機械人傾談,與跟真人傾談,在情感、理解和心理層面都差別不大。至於電腦系統與人溝通時如何予人關愛的感覺,有待專家探討。肯各教授表示:「AI是我們的助手,愈能夠善用,就愈能夠掌握它帶來的影響。可惜暫時尚未有人有系統地就應用AI的道德倫理和風險管理編制指引。」

他說,很多人以為自己不會用ChatGPT,因而不關心這問題,事實上我們寫電郵時,電郵系統會自動提出建議語句,例如「that sounds great」和「sorry,I can’t」,這種「建議」已潛移默化地影響我們的傳訊模式,令人將訊息寫得短一些,或語調正面一點。

聊天機械人技術已存在十多年,以往「你有你問,它有它答」;ChatGPT在技術層面的進步,是用家提出任何問題,它都能夠理解用家輸入的資訊,然後在幾秒鐘內用人類的說話或文字輸出用家想要的內容。ChatGPT還會猜測下一個單詞是甚麼,同時不斷學習,不斷提高對提示(prompt)和問題的理解,成為「通天曉」。

Google AI研究員兼布朗大學電子計算學系教授Ellie Pavlick說, ChatGPT的「新意」在於它的機器學習方式減少依賴人類的督導,而且免費供人使用,沒有技術門檻,用家不用像以前那樣需要專門的工具或取得使用權限。

ChatGPT其實不會思考,只是不斷自我訓練,「學習」來自網絡文本資料庫的資料,包括從書籍、網絡文本、維基百科、文章和網絡上其他文字中獲得的570 GB 資料,即約3,000 億字。若我們指示AI創作歌曲,或者為某人的狗畫一幅迷幻的肖像,得出的「創作」實際上是系統從數據庫找資料拼湊而成的。

美國布朗大學認知、語言及心理學教授Thomas Serre說:「AI系統的表現跟我們供甚麼資料給它學習有莫大關係。互聯網上的資訊以白人主導,因此AI人面識別系統對於辨認非白人和非男性的臉孔能力較低。」ChatGPT提供的資訊準確度只有50%至 70%,可能製造紊亂和不正確的資訊,甚或出現「幻覺」。肯各教授提出,對策是向ChatGPT作出提示時多下工夫,引導它製造好東西。

Serre說ChatGP不懂得像人類思前想後,例如人類在得出一個想法後,若接收到新資訊,會修正之前的想法;但ChatGPT不會實時自我修正或轉變,只會線性地演算和提供答案,因此在下象棋和文本創作等任務上較容易超越人腦。

IE University的資訊系統博士Enrique Dans更直言,ChatGPT在蠶食人類的批判思維,令人依賴人工智能工具,增加被科技操控的機會。「用Google搜尋器找答案,你會得到多項搜尋結果,而不少人視第一頁的結果為真理。ChatGPT回應用家提問的答案,就只有幾段文字,用家更有可能照單全收。」

肯各教授說「真確」就是用家用聊天機械人「做真實的自己」。他在課堂上請學生用ChatGPT寫交友網上的個人簡介,結果所有學生都說ChatGPT的描述很準確地介紹他們。「對於不善於表達自己,或對於溝通感到焦慮的人,ChatGPT是好助手。」相反,用ChatGPT虛構個人簡介就帶出道德和責任的問題。

機器可以假扮自己是真人,講述沒有發生過的事情,有人會視之為欺騙,但肯各教授反問:「機器沒有誤導人的意圖,又算不算欺騙呢?問題還是回到使用者的目的。」

史丹福大學的互聯網觀察所研究人員Renée DiResta曾發表報告,指AI系統是製造虛假資訊的一大威脅。訊息傳播者利用大型語言模型,就能以極高效率和低成本製造大量引導性的內容,進行宣傳或游說。產品或服務供應商可以藉此影響消費者的抉擇。

去年發表的多篇論文指出,大型語言模型和聊天機械人已發展至地步令人難以分辨它們與真人差別的地步,要判別傳訊者的真確身份變得困難。史丹福大學的研究發現,公開表明用AI寫道歉告示的人,會被視為「欠缺誠意」;承認用AI寫求職信的人,亦會被視為能力較低。可見請AI代勞是要付出代價的。倘若選擇用AI創作但秘而不宣,又會招來「不誠實」和「作弊」的污名。

學者預計,由ChatGPT引伸出來的真確性、欺騙和信任等課題,勢將愈來愈受重視,我們需要更多研究來探討AI對人際關係帶來的影響。

這部去年出版的著作指出,人類的智能是複雜而動態的系統(大腦和中樞神經系統),這系統不可能搬到電腦,以數學演算模型運作。

社交網站分享:

延伸閱讀