人工智能的記憶形成機制被發現與大腦驚人相似
由基礎科學研究所 (IBS) 認知與社會性中心和數據科學組的研究人員組成的跨學科團隊發現,人工智能 (AI) 模型的記憶處理與人腦海馬體之間存在驚人的相似性。這一新發現為記憶鞏固提供了新的視角,記憶鞏固是人工智能系統中將短期記憶轉變為長期記憶的過程。
在開發通用人工智能 (AGI) 的競賽中,在 OpenAI 和 Google DeepMind 等有影響力的實體的引領下,理解和復制類人智能已成為一個重要的研究興趣。這些技術進步的核心是 Transformer 模型 [圖 1],其基本原理現在正在得到新的深度探索。
強大的人工智能系統的關鍵是掌握它們如何學習和記憶信息。該團隊將人腦學習原理(特別是通過海馬體中的 NMDA 受體鞏固記憶)應用于人工智能模型。
NMDA 受體就像大腦中的一扇智能門,促進學習和記憶形成。當大腦中存在一種叫做谷氨酸的化學物質時,神經細胞就會受到興奮。另一方面,鎂離子充當擋住門的小守門人。只有當這個離子守門人退到一邊時,物質才允許流入細胞。這是大腦創造和保存記憶的過程,而看門人(鎂離子)在整個過程中的作用是非常具體的。
該團隊有了一個令人著迷的發現:Transformer 模型似乎使用了類似于大腦 NMDA 受體的看門過程(見圖 1)。這一發現促使研究人員研究 Transformer 的記憶鞏固是否可以通過類似于 NMDA 受體門控過程的機制來控制。
在動物大腦中,低鎂水平會削弱記憶功能。研究人員發現,Transformer 中的長期記憶可以通過模仿 NMDA 受體來改善。就像在大腦中一樣,鎂含量的變化會影響記憶強度,調整 Transformer 的參數以反映 NMDA 受體的門控作用可以增強 AI 模型的記憶力。這一突破性的發現表明,人工智能模型的學習方式可以用神經科學的既定知識來解釋。
該研究所神經科學家主任 C. Justin LEE 表示:“這項研究在推進人工智能和神經科學方面邁出了關鍵一步。它使我們能夠更深入地研究大腦的運行原理,并根據這些見解開發更先進的人工智能系統。”
該團隊和韓國科學技術院的數據科學家 CHA Meeyoung 指出:“與需要大量資源的大型人工智能模型不同,人類大腦以最少的能量運行是非常出色的。我們的工作為低成本、高性能的人工智能系統開辟了新的可能性,這些系統可以像人類一樣學習和記住信息。”
這項研究的與眾不同之處在于它主動將受大腦啟發的非線性納入人工智能結構中,這標志著在模擬類人記憶鞏固方面取得了重大進展。人類認知機制和人工智能設計的融合不僅有望創建低成本、高性能的人工智能系統,而且還可以通過人工智能模型提供對大腦工作方式的寶貴見解。
免責聲明:本答案或內容為用戶上傳,不代表本網觀點。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。 如遇侵權請及時聯系本站刪除。