論文の概要: Selective Memory for Artificial Intelligence: Write-Time Gating with Hierarchical Archiving
- arxiv url: http://arxiv.org/abs/2603.15994v1
- Date: Mon, 16 Mar 2026 23:06:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.033809
- Title: Selective Memory for Artificial Intelligence: Write-Time Gating with Hierarchical Archiving
- Title(参考訳): 人工知能のための選択記憶:階層的アーカイビングによる書き込み時間ゲーティング
- Authors: Oliver Zahn, Simran Chana,
- Abstract要約: パラメトリックアプローチは、選択的な更新を前に、知識を重みに圧縮する。
合成サリエンススコアを用いて、入ってくる知識オブジェクトをフィルタリングする書き込み時間ゲーティングを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation stores all content indiscriminately, degrading accuracy as noise accumulates. Parametric approaches compress knowledge into weights, precluding selective updates. Neither mirrors biological memory, which gates encoding based on salience and archives rather than deletes superseded information. We introduce write-time gating that filters incoming knowledge objects using composite salience scores (source reputation, novelty, reliability) while maintaining version chains that preserve prior states. Using real LLM evaluation without oracle access to quality labels, write gating achieves 100 percent accuracy versus 13 percent for ungated stores. The critical finding emerges under distractor scaling: at 8:1 distractor ratios, read-time filtering (Self-RAG) collapses to 0 percent while write gating maintains 100 percent, revealing a structural advantage of write-time over read-time curation. Validation on Wikipedia (20 entities), procedurally generated pharmacology data, and 2026 arXiv papers confirms these findings. The gating advantage scales inversely with parametric memory support: +25pp for Wikipedia, +48pp for post-cutoff arXiv, +65pp for procedural data with zero training knowledge. Signal ablation confirms the method does not depend on oracle-correlated metadata. Write gating matches Self-RAG accuracy at one-ninth the query-time cost.
- Abstract(参考訳): 検索増強世代は、ノイズが蓄積するにつれて、すべてのコンテンツを無差別に記憶し、精度を低下させる。
パラメトリックアプローチは、選択的な更新を前に、知識を重みに圧縮する。
どちらも生物学的記憶を反映せず、サリエンスとアーカイブに基づくエンコーディングをゲートし、重畳された情報を削除しない。
我々は,先行状態を保存するバージョンチェーンを維持しつつ,複合サリエンススコア(ソース評価,ノベルティ,信頼性)を用いて,入ってくる知識オブジェクトをフィルタリングする書き込み時間ゲーティングを導入する。
品質ラベルへのオラクルアクセスのない実際のLCM評価を用いて、書き込みゲーティングは、アンゲートストアでは13%に対して100%の精度を達成する。
8:1のイントラクタ比で、読み取り時間フィルタリング(Self-RAG)は0に崩壊し、書き込みゲーティングは100%維持され、読み取り時間キュレーションよりも書き込み時間という構造上の利点が浮かび上がる。
ウィキペディアの検証(20のエンティティ)、手続き的に生成された薬理学データ、2026のarXiv論文がこれらの発見を裏付けている。
ゲーティングの利点は、パラメトリックメモリのサポートで逆スケールする:+25pp for Wikipedia, +48pp for post-cutoff arXiv, +65pp for procedural data with zero training knowledge。
信号アブレーションは、この方法がオラクル関連メタデータに依存しないことを確認した。
書き込みゲーティングはクエリ時間コストの9分の1でSelf-RAGの精度と一致します。
関連論文リスト
- Diagnosing Retrieval vs. Utilization Bottlenecks in LLM Agent Memory [6.493102878734374]
我々は、書き込み戦略、検索方法、メモリ利用行動における性能差がどのように現れるかを分析する。
LoCoMoでは、検索方法が主流である。
フェール分析は、パフォーマンスの低下が、利用ではなく、検索段階で最も多く現れることを示している。
論文 参考訳(メタデータ) (2026-03-02T23:47:23Z) - Detecting and Correcting Hallucinations in LLM-Generated Code via Deterministic AST Analysis [11.687400527666476]
本稿では,決定論的静的解析フレームワークがテキストと自動修正KCHを確実に検出できるかどうかを検討する。
生成されたコードを抽象構文木(AST)に解析し,動的に生成された知識ベース(KB)に対して検証する後処理フレームワークを提案する。
この非実行アプローチでは、決定論的ルールを使用して、APIと識別子レベルの競合を見つけて修正する。
論文 参考訳(メタデータ) (2026-01-27T02:16:37Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - Dynamic Cheatsheet: Test-Time Learning with Adaptive Memory [52.44029486173232]
Dynamic Cheatsheet(DC)は、永続的で進化するメモリを備えたブラックボックス言語モデルを提供する軽量フレームワークである。
DCは、蓄積した戦略、コードスニペット、および推論時に一般的な問題解決の洞察をモデルが保存し再利用することを可能にする。
このテストタイム学習は、明確な地味なラベルや人間のフィードバックを必要とせずに、幅広いタスクのパフォーマンスを大幅に向上させる。
論文 参考訳(メタデータ) (2025-04-10T17:57:33Z) - Enhancing Domain-Specific Retrieval-Augmented Generation: Synthetic Data Generation and Evaluation using Reasoning Models [0.6827423171182154]
Retrieval-Augmented Generation (RAG) システムは、技術的領域に適用した場合、大きなパフォーマンスギャップに直面します。
ドメイン固有のRAG性能を最適化するために、粒度評価指標と合成データ生成を組み合わせたフレームワークを提案する。
10トークン未満の小さなチャンクは、精度を31-42%向上させます。
論文 参考訳(メタデータ) (2025-02-21T06:38:57Z) - Integral Continual Learning Along the Tangent Vector Field of Tasks [112.02761912526734]
本稿では,特殊データセットからの情報を段階的に組み込んだ軽量連続学習手法を提案する。
ソースデータセットの0.4%まで小さく、小さな固定サイズのメモリバッファを保持しており、単純な再サンプリングによって更新される。
提案手法は,異なるデータセットに対して,様々なバッファサイズで高い性能を実現する。
論文 参考訳(メタデータ) (2022-11-23T16:49:26Z) - Improving information retention in large scale online continual learning [99.73847522194549]
オンライン連続学習は、既存の知識を維持しながら、新しいデータに効率的に適応することを目的としている。
最近の研究は、リプレイバッファが無制限であっても、大規模なOCLでは情報保持が問題であり続けていることを示唆している。
非定常目標に対する最適化を改善するため,移動平均の手法群を提案する。
論文 参考訳(メタデータ) (2022-10-12T16:59:43Z) - Harnessing Abstractive Summarization for Fact-Checked Claim Detection [8.49182897482236]
ソーシャルメディアプラットフォームは、反社会的要素の新たな戦場となり、誤った情報が選択の武器となっている。
この解決策は、ファクトチェックのライフサイクルを部分的に自動化し、高い認知を必要とするタスクに人間の時間を節約することにある、と私たちは信じています。
本稿では,抽象的な要約を用いたクェリを効率的に検出し,クェリを生成するワークフローを提案する。
論文 参考訳(メタデータ) (2022-09-10T07:32:36Z) - Injecting Domain Adaptation with Learning-to-hash for Effective and
Efficient Zero-shot Dense Retrieval [49.98615945702959]
我々は,TAS-B高密度検索器の下流ゼロショット検索精度を向上させるためのLTHおよびベクトル圧縮技術を評価する。
以上の結果から, 従来の研究とは異なり, LTH法はゼロショットTAS-B高密度レトリバーを平均14%のnDCG@10で過小評価できることがわかった。
論文 参考訳(メタデータ) (2022-05-23T17:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。