當前,人工智能技術快速發(fā)展,但大模型“自說自話”、一本正經(jīng)“胡說八道”、生成偏離事實內(nèi)容的問題日益凸顯,這一現(xiàn)象被稱為“AI幻覺”。不少業(yè)內(nèi)人士提醒,由于大模型主要基于概率生成文本而非邏輯推理,在短期內(nèi)難以完全避免此類問題。
《瞭望》新聞周刊記者觀察到,AI虛構事實或邏輯混亂的“幻覺”已在法律、內(nèi)容創(chuàng)作、專業(yè)咨詢等多個領域造成實際影響。
AI技術的發(fā)展方興未艾,但確保其生成內(nèi)容的真實性和可靠性,尤其需要技術開發(fā)者、監(jiān)管機構共同努力。針對“AI幻覺”問題,業(yè)界建議,在技術層面,要持續(xù)優(yōu)化模型架構,增強事實核查能力;在監(jiān)管層面,需完善相關規(guī)范,明確責任邊界。
幻覺頻現(xiàn)
“AI幻覺”已經(jīng)成為當前AI技術發(fā)展中最突出的技術瓶頸之一。從技術層面來看,AI幻覺的產(chǎn)生主要源于三個方面的原因:首先是訓練數(shù)據(jù)的不足或偏差,導致模型對某些領域的認知存在缺陷;其次是算法架構的局限性,當前主流大模型主要基于概率預測而非邏輯推理;最后是訓練目標的設定問題,模型往往更傾向于生成“流暢”而非“準確”的內(nèi)容。
“AI幻覺主要表現(xiàn)為事實性幻覺和邏輯性幻覺兩種。”業(yè)內(nèi)人士介紹,事實性幻覺,表現(xiàn)為模型會編造完全不存在的事實或信息。這種情況在專業(yè)領域尤為突出,如在法律咨詢中虛構判例,在醫(yī)療診斷中給出錯誤結論,或杜撰歷史事件。邏輯性幻覺,表現(xiàn)為模型在長文本生成或連續(xù)對話中出現(xiàn)前后矛盾、邏輯混亂的情況,這主要是因為當前大模型的注意力機制在處理復雜語境時存在局限性。
多項研究證實了AI幻覺問題的嚴重性。今年3月,哥倫比亞大學數(shù)字新聞研究中心針對主流AI搜索工具進行的專項測試發(fā)現(xiàn),這些工具在新聞引用方面的平均錯誤率達到60%。一些研究顯示,AI并不擅長辨別“新聞事實來自哪里”,會出現(xiàn)混淆信息來源、提供失效鏈接等問題。更令人擔憂的是,隨著模型規(guī)模的擴大,某些類型的幻覺問題不僅沒有改善,反而呈現(xiàn)加劇趨勢。
多位業(yè)內(nèi)專家認為,AI幻覺問題在現(xiàn)有技術框架下難以徹底解決。思謀科技聯(lián)合創(chuàng)始人劉樞表示,當前的大模型架構決定了其本質上是一個“黑箱”系統(tǒng),優(yōu)化結構等方式只能緩解模型幻覺問題,很難完全避免幻覺的產(chǎn)生。
有受訪者從認知科學的角度分析,當前的大模型處于“我不知道我知道什么”的狀態(tài),缺乏對自身知識邊界的準確判斷能力。這些技術特性決定了AI幻覺問題的存在,需通過多方面的技術改進來逐步緩解。
警惕風險
業(yè)界普遍認為,在AI幻覺短期內(nèi)難以完全消除的背景下,其潛在風險已從信息領域蔓延至現(xiàn)實世界,可能帶來較大風險。
世界經(jīng)濟論壇《2025年全球風險報告》已將“錯誤和虛假信息”列為全球五大風險之一,其中AI生成的幻覺內(nèi)容被視作關鍵誘因之一。
AI幻覺最直接的危害是造成“信息污染”。在法律領域,美國紐約南區(qū)聯(lián)邦法院在審理一起航空事故訴訟時發(fā)現(xiàn),原告律師提交的法律文書中引用了ChatGPT生成的6個虛假判例,這些虛構案例包括完整的案件名稱、案卷號及法官意見,甚至模仿了美國聯(lián)邦最高法院的判例風格,其虛構能力干擾了司法程序。
金融咨詢領域,AI可能給出錯誤投資建議,如誤讀財報數(shù)據(jù)或虛構企業(yè)信息。
更令人擔憂的是,這些錯誤信息可能被其他AI系統(tǒng)吸收,形成“幻覺循環(huán)”——錯誤數(shù)據(jù)不斷被強化,最終污染整個信息生態(tài)。
隨著AI技術向實體設備領域滲透,幻覺問題的影響已超越虛擬范疇,可能對人身安全構成威脅。在自動駕駛領域,生成式AI被用于實時路況分析和決策制定。業(yè)內(nèi)人士表示,在復雜路況中,自動駕駛若產(chǎn)生“感知幻覺”,可能導致系統(tǒng)誤判環(huán)境,觸發(fā)錯誤決策,直接威脅行車安全。
人形機器人領域風險更值得關注。優(yōu)必選副總裁龐建新說:“當機器人因幻覺做出錯誤動作時,后果遠超文本錯誤。”例如,護理機器人可能誤解指令給患者錯誤用藥,工業(yè)機器人可能誤判操作參數(shù)造成生產(chǎn)事故。這些場景中,AI幻覺甚至可能威脅人身安全。
協(xié)同治理
對于AI幻覺問題帶來的挑戰(zhàn),業(yè)內(nèi)人士建議從技術創(chuàng)新、制度監(jiān)管等多個維度構建綜合治理體系。
技術創(chuàng)新是解決AI幻覺問題的根本途徑。近年來,業(yè)界已提出多種技術方案來應對這一挑戰(zhàn)。劉樞等介紹,檢索增強生成(Retrieval-augmented Generation,RAG)技術融合了檢索與生成模型優(yōu)勢,是當前重要的發(fā)展方向之一。其通過將大模型與權威知識庫實時對接,能顯著提升生成內(nèi)容準確性。
全國政協(xié)委員、360集團創(chuàng)始人周鴻祎提出“以模制模”,構建專業(yè)知識庫,實施合理的矯正機制,構建更完善的安全防護體系,降低“幻覺”帶來的負面影響。例如,研發(fā)專用的安全大模型來監(jiān)督知識庫使用和智能體調(diào)用,并采用多模型交叉驗證、搜索矯正等技術手段來識別和糾正幻覺。
制度監(jiān)管方面需要建立多層次的治理體系。云天勵飛品牌運營中心總經(jīng)理胡思幸認為,要完善監(jiān)管治理,研究AI生成內(nèi)容“數(shù)字水印+風險提示”雙重標識,為AI生成內(nèi)容提供有效的溯源和警示機制。針對日益突出的AI造謠問題,法律界人士建議,要持續(xù)完善相關規(guī)定,明確利用AI造謠的法律責任,加大對違法行為的懲處力度。
治理體系之外,當前階段,在用戶使用AI開展工作時,亦需要建立對AI能力的理性認知,了解其局限性。培養(yǎng)多渠道驗證信息的習慣,優(yōu)先選擇權威、可信賴的媒體或機構作為信息來源,這些基本素養(yǎng)的提升將有效降低AI幻覺的社會影響。同時,在與AI系統(tǒng)交互時應保持必要的懷疑態(tài)度和批判思維,多渠道核查驗證信息的準確性。
當前,人工智能技術快速發(fā)展,但大模型“自說自話”、一本正經(jīng)“胡說八道”、生成偏離事實內(nèi)容的問題日益凸顯,這一現(xiàn)象被稱為“AI幻覺”。不少業(yè)內(nèi)人士提醒,由于大模型主要基于概率生成文本而非邏輯推理,在短期內(nèi)難以完全避免此類問題。
《瞭望》新聞周刊記者觀察到,AI虛構事實或邏輯混亂的“幻覺”已在法律、內(nèi)容創(chuàng)作、專業(yè)咨詢等多個領域造成實際影響。
AI技術的發(fā)展方興未艾,但確保其生成內(nèi)容的真實性和可靠性,尤其需要技術開發(fā)者、監(jiān)管機構共同努力。針對“AI幻覺”問題,業(yè)界建議,在技術層面,要持續(xù)優(yōu)化模型架構,增強事實核查能力;在監(jiān)管層面,需完善相關規(guī)范,明確責任邊界。
幻覺頻現(xiàn)
“AI幻覺”已經(jīng)成為當前AI技術發(fā)展中最突出的技術瓶頸之一。從技術層面來看,AI幻覺的產(chǎn)生主要源于三個方面的原因:首先是訓練數(shù)據(jù)的不足或偏差,導致模型對某些領域的認知存在缺陷;其次是算法架構的局限性,當前主流大模型主要基于概率預測而非邏輯推理;最后是訓練目標的設定問題,模型往往更傾向于生成“流暢”而非“準確”的內(nèi)容。
“AI幻覺主要表現(xiàn)為事實性幻覺和邏輯性幻覺兩種。”業(yè)內(nèi)人士介紹,事實性幻覺,表現(xiàn)為模型會編造完全不存在的事實或信息。這種情況在專業(yè)領域尤為突出,如在法律咨詢中虛構判例,在醫(yī)療診斷中給出錯誤結論,或杜撰歷史事件。邏輯性幻覺,表現(xiàn)為模型在長文本生成或連續(xù)對話中出現(xiàn)前后矛盾、邏輯混亂的情況,這主要是因為當前大模型的注意力機制在處理復雜語境時存在局限性。
多項研究證實了AI幻覺問題的嚴重性。今年3月,哥倫比亞大學數(shù)字新聞研究中心針對主流AI搜索工具進行的專項測試發(fā)現(xiàn),這些工具在新聞引用方面的平均錯誤率達到60%。一些研究顯示,AI并不擅長辨別“新聞事實來自哪里”,會出現(xiàn)混淆信息來源、提供失效鏈接等問題。更令人擔憂的是,隨著模型規(guī)模的擴大,某些類型的幻覺問題不僅沒有改善,反而呈現(xiàn)加劇趨勢。
多位業(yè)內(nèi)專家認為,AI幻覺問題在現(xiàn)有技術框架下難以徹底解決。思謀科技聯(lián)合創(chuàng)始人劉樞表示,當前的大模型架構決定了其本質上是一個“黑箱”系統(tǒng),優(yōu)化結構等方式只能緩解模型幻覺問題,很難完全避免幻覺的產(chǎn)生。
有受訪者從認知科學的角度分析,當前的大模型處于“我不知道我知道什么”的狀態(tài),缺乏對自身知識邊界的準確判斷能力。這些技術特性決定了AI幻覺問題的存在,需通過多方面的技術改進來逐步緩解。
警惕風險
業(yè)界普遍認為,在AI幻覺短期內(nèi)難以完全消除的背景下,其潛在風險已從信息領域蔓延至現(xiàn)實世界,可能帶來較大風險。
世界經(jīng)濟論壇《2025年全球風險報告》已將“錯誤和虛假信息”列為全球五大風險之一,其中AI生成的幻覺內(nèi)容被視作關鍵誘因之一。
AI幻覺最直接的危害是造成“信息污染”。在法律領域,美國紐約南區(qū)聯(lián)邦法院在審理一起航空事故訴訟時發(fā)現(xiàn),原告律師提交的法律文書中引用了ChatGPT生成的6個虛假判例,這些虛構案例包括完整的案件名稱、案卷號及法官意見,甚至模仿了美國聯(lián)邦最高法院的判例風格,其虛構能力干擾了司法程序。
金融咨詢領域,AI可能給出錯誤投資建議,如誤讀財報數(shù)據(jù)或虛構企業(yè)信息。
更令人擔憂的是,這些錯誤信息可能被其他AI系統(tǒng)吸收,形成“幻覺循環(huán)”——錯誤數(shù)據(jù)不斷被強化,最終污染整個信息生態(tài)。
隨著AI技術向實體設備領域滲透,幻覺問題的影響已超越虛擬范疇,可能對人身安全構成威脅。在自動駕駛領域,生成式AI被用于實時路況分析和決策制定。業(yè)內(nèi)人士表示,在復雜路況中,自動駕駛若產(chǎn)生“感知幻覺”,可能導致系統(tǒng)誤判環(huán)境,觸發(fā)錯誤決策,直接威脅行車安全。
人形機器人領域風險更值得關注。優(yōu)必選副總裁龐建新說:“當機器人因幻覺做出錯誤動作時,后果遠超文本錯誤。”例如,護理機器人可能誤解指令給患者錯誤用藥,工業(yè)機器人可能誤判操作參數(shù)造成生產(chǎn)事故。這些場景中,AI幻覺甚至可能威脅人身安全。
協(xié)同治理
對于AI幻覺問題帶來的挑戰(zhàn),業(yè)內(nèi)人士建議從技術創(chuàng)新、制度監(jiān)管等多個維度構建綜合治理體系。
技術創(chuàng)新是解決AI幻覺問題的根本途徑。近年來,業(yè)界已提出多種技術方案來應對這一挑戰(zhàn)。劉樞等介紹,檢索增強生成(Retrieval-augmented Generation,RAG)技術融合了檢索與生成模型優(yōu)勢,是當前重要的發(fā)展方向之一。其通過將大模型與權威知識庫實時對接,能顯著提升生成內(nèi)容準確性。
全國政協(xié)委員、360集團創(chuàng)始人周鴻祎提出“以模制模”,構建專業(yè)知識庫,實施合理的矯正機制,構建更完善的安全防護體系,降低“幻覺”帶來的負面影響。例如,研發(fā)專用的安全大模型來監(jiān)督知識庫使用和智能體調(diào)用,并采用多模型交叉驗證、搜索矯正等技術手段來識別和糾正幻覺。
制度監(jiān)管方面需要建立多層次的治理體系。云天勵飛品牌運營中心總經(jīng)理胡思幸認為,要完善監(jiān)管治理,研究AI生成內(nèi)容“數(shù)字水印+風險提示”雙重標識,為AI生成內(nèi)容提供有效的溯源和警示機制。針對日益突出的AI造謠問題,法律界人士建議,要持續(xù)完善相關規(guī)定,明確利用AI造謠的法律責任,加大對違法行為的懲處力度。
治理體系之外,當前階段,在用戶使用AI開展工作時,亦需要建立對AI能力的理性認知,了解其局限性。培養(yǎng)多渠道驗證信息的習慣,優(yōu)先選擇權威、可信賴的媒體或機構作為信息來源,這些基本素養(yǎng)的提升將有效降低AI幻覺的社會影響。同時,在與AI系統(tǒng)交互時應保持必要的懷疑態(tài)度和批判思維,多渠道核查驗證信息的準確性。
本文鏈接:http://www.bizone66.com/v-146-5169.html瞭望 | AI幻覺頻現(xiàn) 風險挑戰(zhàn)幾何
相關文章:
簡潔的優(yōu)美的早安問候語58條08-04
經(jīng)典中秋祝詞45條08-21
銀行會計副主管年終總結12-20
開展愛心獻血活動策劃書優(yōu)秀10-26
幼兒園周年慶邀請函06-04
初中作文軍訓心得02-16
中學生讀《阿q正傳》有感01-30
詩詞鑒賞的心得體會08-16
富春江景色的作文03-13
春節(jié)話題的作文600字02-26
描寫比賽時神態(tài)的詞語01-09
群體作文300字12-14
山東省淄博市成人高考招生有什么條件?02-16
優(yōu)秀學生評語范文【通用23篇】04-05
小班主題教案08-02
上學期六年級英語教學總結07-24
燭之武退秦師教學設計07-23
小學英語的復習計劃07-27
世界讀書日讀書文案04-22