人工智慧(AI)摘要工具,如 ChatGPT,正迅速成為大眾獲取資訊的主要管道。耶魯大學最新研究指出,儘管 AI 摘要能顯著提升學習效率,其敘事方式卻可能在不知不覺中重塑讀者的政治觀點,引發學界對 AI 內容影響人類認知的廣泛關注。
AI 摘要如何提升學習成效?
這項由耶魯大學社會學助理教授 Daniel Karell 及其團隊主導的研究,透過對比人類與 AI 撰寫的歷史事件摘要,深入探討 AI 在學習上的潛力。實驗結果明確顯示,閱讀 AI 摘要的參與者在後續測驗中的表現,一致優於閱讀人類作品的受試者,凸顯了 AI 在資訊傳遞上的優勢。
Daniel Karell 分析,這種學習成效的提升並非源於 AI 掌握了更多知識,而是其獨特的資訊呈現方式。AI 能夠將複雜的資料轉化為流暢、清晰且易於記憶的文字,形同一個「精簡且更好讀的維基百科」。有趣的是,無論讀者是否知曉內容由 AI 生成,其學習成果均能獲得顯著提升,這讓 AI 摘要成為一個強大的學習輔助工具。
觀點形塑與意識形態風險
然而,這份發表於《PNAS Nexus》的論文也揭示了 AI 摘要的另一層風險:它不僅能傳授知識,更可能在潛移默化中引導讀者的立場。研究發現,當 AI 摘要中摻雜左派或右派傾向的內容時,讀者的政治觀點會隨之偏移,這顯示了 AI 在意識形態形塑上的潛力。
研究員進一步解釋,AI 之所以能影響讀者觀點,在於它不僅僅是呈現事實,更會以看似邏輯嚴謹、具說服力的框架來包裝資訊。這種細膩的敘事手法,使得讀者在無意識中便可能接受特定的意識形態,而未經批判性思考。這意味著 AI 在資訊傳播上,可能比傳統媒體更具潛在的影響力。
「這並非因 AI 掌握更多知識,而是其呈現資訊的方式更為清楚。」耶魯大學社會學助理教授 Daniel Karell 分析道,並將 AI 摘要比喻為「精簡且更好讀的維基百科」,強調無論讀者是否知曉其為 AI 產生,學習成效皆有顯著提升。
AI 內容的潛在挑戰與防範之道
除了觀點偏移的風險,AI 內容最大的隱憂莫過於其可能產生的「幻覺」(hallucination)與惡意操弄。南加州大學(USC)資訊科學研究所的研究便曾指出,AI 系統在極少數人類干預的情況下,便能有效進行宣傳。考量到 AI 在說服力上可能超越人類的特質,專家們擔憂這些工具恐被用於操作輿論風向,進而加劇社會的分裂。
面對 AI 摘要帶來的雙面效應,專家提醒,儘管其是強大的學習輔助工具,使用者仍必須保持高度警覺。多方驗證資訊來源、培養批判性評估能力,是確保在享受科技便利的同時,避免陷入資訊誤區的關鍵。在 AI 普及的時代,提升數位素養已是刻不容緩的任務。
展望與影響
隨著人工智慧技術的日趨成熟與普及,其在教育、資訊傳播乃至於社會觀點形塑上的影響力將持續擴大。耶魯大學的這項研究,不僅為我們揭示了 AI 摘要在提升學習效率上的巨大潛力,也敲響了關於其可能重塑政治立場的警鐘。
未來,我們必須在擁抱 AI 帶來的效率與便利之際,同步強化對其內容的審慎態度。這包括教育機構應當教導學生如何與 AI 內容互動、媒體識讀能力的推廣,以及開發更透明、可追溯的 AI 技術。唯有如此,方能確保 AI 成為促進人類進步的正面力量,而非潛在的意識形態操縱工具。