論文の概要: Agentic Unlearning: When LLM Agent Meets Machine Unlearning
- arxiv url: http://arxiv.org/abs/2602.17692v1
- Date: Fri, 06 Feb 2026 07:13:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.530311
- Title: Agentic Unlearning: When LLM Agent Meets Machine Unlearning
- Title(参考訳): エージェント・アンラーニング:LLMエージェントがマシン・アンラーニングに出会ったとき
- Authors: Bin Wang, Fan Wang, Pingping Wang, Jinyu Cong, Yang Yu, Yilong Yin, Zhongyi Han, Benzheng Wei,
- Abstract要約: パラメータとメモリ経路をまたいだ共同学習フレームワークであるSingchronized Backflow Unlearning(SBU)を提案する。
SBUは、保持されたデータに対する限定的な劣化を伴う、両方の経路にまたがる標的となるプライベート情報のトレースを削減する。
- 参考スコア(独自算出の注目度): 45.60284810359578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce \textbf{agentic unlearning} which removes specified information from both model parameters and persistent memory in agents with closed-loop interaction. Existing unlearning methods target parameters alone, leaving two critical gaps: (i) parameter-memory backflow, where retrieval reactivates parametric remnants or memory artifacts reintroduce sensitive content, and (ii) the absence of a unified strategy that covers both parameter and memory pathways. We present Synchronized Backflow Unlearning (SBU), a framework that unlearns jointly across parameter and memory pathways. The memory pathway performs dependency closure-based unlearning that prunes isolated entities while logically invalidating shared artifacts. The parameter pathway employs stochastic reference alignment to guide model outputs toward a high-entropy prior. These pathways are integrated via a synchronized dual-update protocol, forming a closed-loop mechanism where memory unlearning and parametric suppression reinforce each other to prevent cross-pathway recontamination. Experiments on medical QA benchmarks show that SBU reduces traces of targeted private information across both pathways with limited degradation on retained data.
- Abstract(参考訳): 本稿では,閉ループ相互作用を持つエージェントにおいて,モデルパラメータと永続メモリの両方から特定情報を除去する「textbf{agentic unlearning」を提案する。
既存の未学習手法はパラメータのみをターゲットとしており、2つの重要なギャップを残している。
一 検索がパラメトリック残留物又はメモリアーティファクトを再活性化し、センシティブな内容を再導入するパラメータメモリバックフロー
(II)パラメータとメモリ経路の両方をカバーする統一戦略が存在しないこと。
パラメータとメモリ経路をまたいだ共同学習フレームワークであるSingchronized Backflow Unlearning(SBU)を提案する。
メモリパスは依存クロージャに基づくアンラーニングを実行し、分離されたエンティティを浮き彫りにしつつ、共有アーティファクトを論理的に無効にする。
パラメータパスは確率的参照アライメントを用いて、モデル出力を高いエントロピー前へ導く。
これらの経路は同期されたデュアル更新プロトコルを介して統合され、メモリアンラーニングとパラメトリック抑制が相互に強化され、パス間の再汚染を防ぐクローズドループ機構を形成する。
医学的QAベンチマークの実験では、SBUは、保持されたデータに対して限られた劣化を伴って、両方の経路にわたる標的となるプライベート情報のトレースを削減している。
関連論文リスト
- AMemGym: Interactive Memory Benchmarking for Assistants in Long-Horizon Conversations [61.6579785305668]
AMemGymは、メモリ駆動型パーソナライゼーションのためのオンライン評価と最適化を可能にする対話型環境である。
我々のフレームワークは、対話エージェントのメモリ能力を向上するためのスケーラブルで診断に富んだ環境を提供する。
論文 参考訳(メタデータ) (2026-03-02T15:15:11Z) - TS-Memory: Plug-and-Play Memory for Time Series Foundation Models [63.21390142212087]
Time Series Foundation Models (TSFM) は大規模な事前訓練を通じて強力なゼロショット予測を実現する。
パラメトリック適応は破滅的な忘れを招き、非パラメトリック検索は予測を改善するが、データストア検索によってレイテンシが高くなる。
本稿では, TSFM を拡張した軽量メモリアダプタ TS-Memory としてParametric Memory Distillation を提案し,実装する。
論文 参考訳(メタデータ) (2026-02-12T04:16:19Z) - Locas: Your Models are Principled Initializers of Locally-Supported Parametric Memories [44.46300411842271]
Locasは局所的なパラメトリックメモリであり、現代のトランスフォーマーにおいてFFNブロックの設計を共有する。
このような低ランクサイドウェイFFNスタイルの記憶の適切な初期化は、迅速な収束、一般化の改善、破滅的な予防に不可欠である。
論文 参考訳(メタデータ) (2026-02-04T22:09:40Z) - FlashMem: Distilling Intrinsic Latent Memory via Computation Reuse [4.210760734549566]
FlashMemは、計算再利用を通じて、過渡的推論状態から直接固有のメモリを蒸留するフレームワークである。
実験によると、FlashMemは5倍の推論遅延を減らしながら、重いベースラインのパフォーマンスと一致している。
論文 参考訳(メタデータ) (2026-01-09T03:27:43Z) - Agentic Learner with Grow-and-Refine Multimodal Semantic Memory [50.81667005063605]
ViLoMemは、コンパクトなスキーマベースのメモリを構築するデュアルストリームメモリフレームワークである。
視覚的障害パターンと論理的推論エラーを符号化し、MLLMが成功し失敗した経験から学ぶことを可能にする。
論文 参考訳(メタデータ) (2025-11-26T18:55:08Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - RePCS: Diagnosing Data Memorization in LLM-Powered Retrieval-Augmented Generation [0.0]
モデルは依然として記憶されたトレーニングデータに依存し、得られた証拠をバイパスし、汚染された出力を生成する。
RePCS(Retrieval-Path Contamination Scoring)は,モデルアクセスや再トレーニングを必要とせずに,そのような動作を検出する診断手法である。
論文 参考訳(メタデータ) (2025-06-18T14:48:19Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。