論文の概要: Memory-Integrated Reconfigurable Adapters: A Unified Framework for Settings with Multiple Tasks
- arxiv url: http://arxiv.org/abs/2512.00940v1
- Date: Sun, 30 Nov 2025 15:45:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.509912
- Title: Memory-Integrated Reconfigurable Adapters: A Unified Framework for Settings with Multiple Tasks
- Title(参考訳): メモリインテグレートされた再構成可能なアダプタ: 複数のタスクで設定できる統一フレームワーク
- Authors: Susmit Agrawal, Krishn Vishwas Kher, Saksham Mittal, Swarnim Maheshwari, Vineeth N. Balasubramanian,
- Abstract要約: 生物は、捕食者を避けること、捕食、荒れ果てた地形を横切ること、社会化など、しばしばミリ秒以内の作業の間を常に方向転換する。
本稿では,共有バックボーン上にHopfieldスタイルの連想メモリモジュールを統合する統一フレームワークを提案する。
標準ベンチマークの実証評価により、AMアーキテクチャが適応性と保持性を著しく向上することを確認した。
- 参考スコア(独自算出の注目度): 29.90641701972515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organisms constantly pivot between tasks such as evading predators, foraging, traversing rugged terrain, and socializing, often within milliseconds. Remarkably, they preserve knowledge of once-learned environments sans catastrophic forgetting, a phenomenon neuroscientists hypothesize, is due to a singular neural circuitry dynamically overlayed by neuromodulatory agents such as dopamine and acetylcholine. In parallel, deep learning research addresses analogous challenges via domain generalization (DG) and continual learning (CL), yet these methods remain siloed, despite the brains ability to perform them seamlessly. In particular, prior work has not explored architectures involving associative memories (AMs), which are an integral part of biological systems, to jointly address these tasks. We propose Memory-Integrated Reconfigurable Adapters (MIRA), a unified framework that integrates Hopfield-style associative memory modules atop a shared backbone. Associative memory keys are learned post-hoc to index and retrieve an affine combination of stored adapter updates for any given task or domain on a per-sample basis. By varying only the task-specific objectives, we demonstrate that MIRA seamlessly accommodates domain shifts and sequential task exposures under one roof. Empirical evaluations on standard benchmarks confirm that our AM-augmented architecture significantly enhances adaptability and retention: in DG, MIRA achieves SoTA out-of-distribution accuracy, and in incremental learning settings, it outperforms architectures explicitly designed to handle catastrophic forgetting using generic CL algorithms. By unifying adapter-based modulation with biologically inspired associative memory, MIRA delivers rapid task switching and enduring knowledge retention in a single extensible architecture, charting a path toward more versatile and memory-augmented AI systems.
- Abstract(参考訳): 生物は、捕食者を避けること、捕食、荒れ果てた地形を横切ること、社会化など、しばしばミリ秒以内の作業の間を常に方向転換する。
神経科学者の仮説では、ドーパミンやアセチルコリンのような神経調節剤によって動的にオーバーレイされる特異な神経回路が原因である。
並行して、ディープラーニングの研究はドメイン一般化(DG)と継続学習(CL)を通じて類似した課題に対処するが、脳がシームレスに実行する能力にもかかわらず、これらの手法はサイロ化されている。
特に、先行研究では、これらの課題に共同で対処するために、生物学的システムの不可欠な部分である連想記憶(AM)を含むアーキテクチャを探求していない。
本稿では,共有バックボーン上にHopfieldスタイルの連想メモリモジュールを統合する統合フレームワークであるMemory-Integrated Reconfigurable Adapters (MIRA)を提案する。
連想メモリキーは、インデックス化のためにポストホックで学習され、特定のタスクまたはドメインに対するストアドアダプタ更新のアフィンの組み合わせをサンプルごとに検索する。
タスク固有の目的だけを変えることで、MIRAはドメインシフトとシーケンシャルなタスク露出を1つの屋根の下でシームレスに対応できることを実証する。
DGでは、MIRAはSoTAのアウト・オブ・ディストリビューションの精度を達成し、インクリメンタルな学習設定では、ジェネリックCLアルゴリズムを用いた破滅的な忘れの処理を明示的に行うように設計されたアーキテクチャよりも優れています。
生物学的にインスパイアされた連想記憶とアダプタベースの変調を統一することにより、MIRAは、単一の拡張可能なアーキテクチャにおいて、迅速なタスク切替と知識保持を持続し、より汎用的でメモリ拡張されたAIシステムへの道をチャート化する。
関連論文リスト
- Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving Memory [89.65731902036669]
Evo-Memoryは、大規模言語モデル(LLM)エージェントで自己進化型メモリを評価するための、ストリーミングベンチマークとフレームワークである。
10以上の代表的なメモリモジュールを評価し、10種類の多ターンゴール指向およびシングルターン推論およびQAデータセットで評価した。
論文 参考訳(メタデータ) (2025-11-25T21:08:07Z) - PISA: A Pragmatic Psych-Inspired Unified Memory System for Enhanced AI Agency [50.712873697511206]
既存の作業は、多種多様なタスクへの適応性に欠けることが多く、AIエージェントメモリの構成的およびタスク指向の役割を見落としている。
PISAは,メモリを構築的かつ適応的なプロセスとして扱う,実践的でサイコにインスパイアされた統合メモリシステムである。
既存のLOCOMOベンチマークと新たに提案したデータ解析タスクのAggQAベンチマークに基づいて,PISAが適応性と長期的知識保持を大幅に向上させることで,新たな最先端技術を設定することを確認した。
論文 参考訳(メタデータ) (2025-10-12T10:34:35Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - HiCL: Hippocampal-Inspired Continual Learning [14.349317103576558]
HiCLは、海馬にインスパイアされたデュアルメモリ連続学習アーキテクチャである。
海馬回路にインスパイアされた要素を用いて、破滅的な忘れを緩和する方法を示す。
論文 参考訳(メタデータ) (2025-08-19T23:40:11Z) - Memory-Augmented Transformers: A Systematic Review from Neuroscience Principles to Enhanced Model Architectures [4.942399246128045]
記憶は知性の基本であり、生物学的および人工システム間の学習、推論、適応性を可能にする。
トランスフォーマーはシーケンスモデリングにおいて優れているが、長距離コンテキスト保持、連続学習、知識統合において制限に直面している。
このレビューでは、動的多時間記憶、選択的注意、統合など、神経科学の原則をブリッジする統一的な枠組みを提示する。
論文 参考訳(メタデータ) (2025-08-14T16:48:38Z) - From RAG to Memory: Non-Parametric Continual Learning for Large Language Models [6.380729797938521]
検索強化世代(RAG)は、新しい情報を導入する主要な方法となっている。
最近のRAGは、知識グラフのような様々な構造を持つベクトル埋め込みを拡大して、いくつかのギャップ、すなわちセンスメイキングと連想性に対処している。
我々は,現実的,感覚的,連想的なメモリタスクにおいて,標準RAGを総合的に上回るフレームワークであるHippoRAG 2を提案する。
論文 参考訳(メタデータ) (2025-02-20T18:26:02Z) - A Framework for Inference Inspired by Human Memory Mechanisms [9.408704431898279]
本稿では,知覚,記憶,推論の構成要素からなるPMIフレームワークを提案する。
メモリモジュールは、ワーキングメモリと長期メモリから構成され、後者は、広範囲で複雑なリレーショナル知識と経験を維持するために、高次構造を備えている。
我々は、bAbI-20kやSolt-of-CLEVRデータセットのような質問応答タスクにおいて、一般的なTransformerとCNNモデルを改善するためにPMIを適用します。
論文 参考訳(メタデータ) (2023-10-01T08:12:55Z) - Generalized Few-Shot Continual Learning with Contrastive Mixture of
Adapters [59.82088750033897]
我々は,クラスおよびドメインインクリメンタルな状況を含む汎用FSCL (GFSCL) プロトコルを構築した。
一般的な連続学習手法は、目に見えない領域に一般化能力が乏しいことが判明した。
このようにして、視覚変換器(ViT)に基づくリハーサルフリーフレームワークであるContrastive Mixture of Adapters(CMoA)を提案する。
論文 参考訳(メタデータ) (2023-02-12T15:18:14Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - MetaPerturb: Transferable Regularizer for Heterogeneous Tasks and
Architectures [61.73533544385352]
本稿ではメタパーターブ(MetaPerturb)というトランスファー可能な摂動モデルを提案する。
MetaPerturbは、レイヤやタスクにまたがる多様な分散を訓練したセット関数であるため、異種タスクやアーキテクチャを一般化することができる。
論文 参考訳(メタデータ) (2020-06-13T02:54:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。