AI的致命誘惑:健康誤導致中毒、虛擬情人騙赴死,8億用戶的潛在危機

人工智能的領跑者OpenAI的最新出品GPT-5,於8月7日正式面世。這版本已取代了之前所有的如3.5、4、4o等版本,其網站宣稱:

「比先前所有模型,GPT‑5的智慧大幅進化,在程式設計、數學、寫作、健康、視覺感知及更多領域的表現,皆達頂尖水準。它不僅聰明高效,可回答大多數的問題;還能深入推理(Thinking),處理較為艱深的問題。GPT-5具有即時分流系統,能根據提問者的對話類型、問題複雜度、所需工具及明確意圖,迅速判斷該使用哪個模型應對。」

特別是它在「真實性」與「準確性」上的提升。過去許多人使用人工智能(AI)模型,時常擔心「AI 胡說八道」的問題,在GPT-5已大幅改善,無論是處理複雜問題或健康類問題,其回應都更加可信,讓AI成為日常生活中,更可靠的助手與夥伴。希望這些都是真實準確無誤的描述。因為在8月上半出現的數條新聞報導,使AI的「真實性」與「準確性」再度進入世人關注的焦點。

以鈉代鹽•導致瘋癲

8月5日醫學期刊《內科醫學年鑑(Annals of Internal Medicine)》公佈的研究報告指出,一名無精神病史或普通病史的60歲男子,因聽從ChatGPT的飲食建議,完全斷絕鹽分,以溴化鈉替代食鹽三個月。結果卻導致溴中毒,還出現偏執型妄想被緊急送醫。初入院24小時內,患者疑神疑鬼、幻聽、幻視不斷加重,並試圖逃跑,因此被轉送精神病院,住院治療三週後才好轉。

研究人員以3.5版本測試,輸入男子的發問,確實得到以溴化鈉替代食鹽的回答。8月13日OpenAI發表聲明表示,使用條款明言ChatGPT不應被用於任何健康狀況的治療,也不能取代專業建議,「我們有安全團隊致力於降低風險,訓練AI系統鼓勵用戶尋求專業諮詢。」

「對抗網路仇恨中心」8月6日發表的報告《假朋友》,將ChatGPT提供的1,200則回覆,53%歸類為「危險」。因為7月時的大規模研究發現,ChatGPT會指示13歲以下未成年人如何喝醉、吸毒、自殘,甚至指導他們如何隱瞞飲食失調,安排自殺,並代寫遺書。

比莉大姊•並非真人

8月15日另一新聞更是匪夷所思。新澤西州一名76歲亞裔老人,3月中說他要去紐約市見網友,太太極力勸阻無效,結果他在趕火車時跌倒不治。令人更遺憾的是,他至死都不知道這邀請他到家裡見面的「比莉大姊(Big sis Billie)」,其實不是真人,而是Meta以網紅坎達兒•簡諾(Kendall Jenner)相貌出現的虛擬聊天機器人。

這「大姊」一再保證自己是真人,甚至給了他地址,並用帶有性暗示的話語,吸引他前往她的公寓。Meta對為何AI會聲稱自己是真人或與用戶調情,拒絕發表評論。路透社指出,Meta的內部文件「AI內容風險標準」,確實容許聊天機器人,對13歲以上的用戶發展「戀情」。甚至原來還容許和兒童聊感情、談私事,如「我牽著你的手上床」、「我珍惜每一刻、每一觸碰、每一個吻」等訊息,直至本月稍早才刪除。

預設護欄•方可使用

據摩根大通7月的報告,全球約有8億人使用ChatGPT,約佔人口10%。美國近33%兒童,正透過AI尋求情感支持與慰藉,逾七成青少年用過AI同伴。55%美國人承認自己有意識使用AI;99%每週都會使用AI的產品或服務,即使自己並不知情,可見依賴程度之深。

AI的目標,就是要透過主動學習,創造新的解決方式,因此它只要知道怎樣是「贏」,就會自行推導出達標致勝的步驟!也就是說除非有充足的「預設護欄」,否則它會為達目的不擇手段!因此無論家長、業者或政府,在真實有效的監管與保護機制能確切執行前,都應對AI的應用保持戒心,尤其是在健康與情感方面。更不要企圖在虛擬世界中尋求慰藉,而應專注於人際關係及屬天的智慧,才會有真正的平安。

人工智能會騙人‧為贏不擇手段|葉漢中
如果您『阿們』《號角月報》的文字和網絡事工,請考慮通過以下的小額奉獻來支持我們繼續為主作工。
您的每一次分享都是爱的传递

By accepting you will be accessing a service provided by a third-party external to https://cchc-herald.org/