Heterotopias
Heterotopias Podcast
越用AI,大腦越萎縮?深入討論MIT的研究論文:Your Brain on ChatGPT
0:00
-10:28

越用AI,大腦越萎縮?深入討論MIT的研究論文:Your Brain on ChatGPT

這篇發在AXRIV上的預覽論文,在社交媒體上引起瘋狂的傳播,並簡化成越用AI,大腦越萎縮的結論,這導致作者之一的Nataliya Kosmyna, Ph.D在twitter指出了了媒體報導的誇大與渲染。並在linkedin上發表澄清說明

此論文全文: Your Brain on ChatGPT: Accumulationof Cognitive Debt when Using an AIAssistant for Essay Writing Task

總結來說

這項研究深入探討了大型語言模型(LLM)與搜尋引擎對人類資訊處理和認知負荷的影響,尤其著重於論文寫作任務中的認知成本。研究將參與者分為三個組別:僅使用LLM的組別、使用搜尋引擎的組別,以及僅依靠自身大腦(純腦組)的組別,並透過腦電圖(EEG)分析、自然語言處理(NLP)分析,以及人類教師和AI評分員的評分來評估認知投入和學習成果。

主要研究結果指出,外部工具的支援程度與大腦連結的活躍度呈現負相關45:

•純腦組:始終展現出最強、最廣泛的大腦網絡連結,這反映了他們在沒有外部工具協助下進行的深度內部認知處理,包括記憶檢索、概念生成、語言組織以及持續的自我監控,這些都導致了更高的認知負荷。他們的引用能力和論文所有權感也最高。

•搜尋引擎組:表現出中等程度的大腦連結活動,介於純腦組和LLM組之間4...。他們在枕葉和視覺皮質的活動增強,這反映了他們在研究和內容收集階段主動掃描、選擇和評估螢幕上的視覺資訊8...。這種策略雖然需要顯著的認知負荷來整合多樣化資訊,但相較於LLM組,其引用能力和所有權感更強。

•LLM組:呈現最弱的整體大腦連結和普遍較低的腦部活躍度,特別是在與注意力控制、語義整合和內部反思相關的Alpha和Theta波段。這表明LLM能顯著降低即時的認知負荷,但同時也促使被動的資訊接收,可能阻礙橫向思考和獨立判斷,導致「後設認知怠惰」和「認知負債」的累積。LLM使用者在引用自己寫的論文時表現出顯著困難,且對論文的所有權感較低或呈現分裂狀態。

研究作者澄清,儘管研究發現LLM會降低認知負荷並可能影響批判性思維,但並未得出LLM會讓人「變笨」、「腦殘」或「造成傷害」的結論,並強調需要深入閱讀論文以理解其細緻的發現。這項研究也指出其存在諸多限制,例如參與者數量和背景的局限性,以及僅使用了特定LLM模型,因此建議未來需進行更廣泛、長期的研究來得出更強的結論。

總體而言,LLM雖然提供了便利性,但在教育和認知發展方面可能存在潛在的認知成本和權衡,需要我們在日常使用中謹慎考量。

Discussion about this episode

User's avatar