論文の概要: Scene-Aware Memory Discrimination: Deciding Which Personal Knowledge Stays
- arxiv url: http://arxiv.org/abs/2602.11607v1
- Date: Thu, 12 Feb 2026 05:53:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.660209
- Title: Scene-Aware Memory Discrimination: Deciding Which Personal Knowledge Stays
- Title(参考訳): シーン認識型記憶識別 : どの個人的知識が待機するか決定する
- Authors: Yijie Zhong, Mengying Guo, Zewei Wang, Zhongyang Li, Dandan Tu, Haofen Wang,
- Abstract要約: 大規模インタラクションと多様なメモリ標準に対応するために,Scene-Aware Memory Discrimination法(SAMD)を提案する。
我々は,SAMDが記憶可能なデータの大半をリコールし,動的シナリオにおいて頑健であることを示す。
パーソナライズされたアプリケーションに統合されると、SAMDはメモリ構築の効率と品質の両方を著しく向上させ、個人的知識の組織化に繋がる。
- 参考スコア(独自算出の注目度): 14.981027641902221
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Intelligent devices have become deeply integrated into everyday life, generating vast amounts of user interactions that form valuable personal knowledge. Efficient organization of this knowledge in user memory is essential for enabling personalized applications. However, current research on memory writing, management, and reading using large language models (LLMs) faces challenges in filtering irrelevant information and in dealing with rising computational costs. Inspired by the concept of selective attention in the human brain, we introduce a memory discrimination task. To address large-scale interactions and diverse memory standards in this task, we propose a Scene-Aware Memory Discrimination method (SAMD), which comprises two key components: the Gating Unit Module (GUM) and the Cluster Prompting Module (CPM). GUM enhances processing efficiency by filtering out non-memorable interactions and focusing on the salient content most relevant to application demands. CPM establishes adaptive memory standards, guiding LLMs to discern what information should be remembered or discarded. It also analyzes the relationship between user intents and memory contexts to build effective clustering prompts. Comprehensive direct and indirect evaluations demonstrate the effectiveness and generalization of our approach. We independently assess the performance of memory discrimination, showing that SAMD successfully recalls the majority of memorable data and remains robust in dynamic scenarios. Furthermore, when integrated into personalized applications, SAMD significantly enhances both the efficiency and quality of memory construction, leading to better organization of personal knowledge.
- Abstract(参考訳): インテリジェントデバイスは日々の生活に深く統合され、貴重な個人的知識を形成する膨大な量のユーザーインタラクションを生み出している。
パーソナライズされたアプリケーションを実現するためには、ユーザメモリにおけるこの知識の効率的な組織化が不可欠である。
しかし, 大規模言語モデル(LLM)を用いたメモリ書き込み, 管理, 読み出しに関する最近の研究は, 無関係な情報をフィルタリングし, 計算コストの増大に対処する際の課題に直面している。
人間の脳における選択的注意の概念から着想を得た記憶識別タスクを導入する。
本稿では,大規模インタラクションと多様なメモリ標準に対応するために,GUM(Gating Unit Module)とCPM(Cluster Prompting Module)の2つの主要コンポーネントからなるSAMD(Scene-Aware Memory Discrimination Method)を提案する。
GUMは、記憶不能なインタラクションをフィルタリングし、アプリケーション要求に最も関係のある健全なコンテンツに焦点を当てることで、処理効率を向上させる。
CPMは適応的なメモリ標準を確立し、LLMにどの情報を記憶または破棄すべきかを判断するよう指示する。
また、効果的なクラスタリングプロンプトを構築するために、ユーザ意図とメモリコンテキストの関係を分析する。
総合的直接的および間接的評価は、我々のアプローチの有効性と一般化を実証する。
メモリ識別の性能を独立に評価し,SAMDが記憶可能なデータの大半をリコールし,動的シナリオにおいて頑健であることを示す。
さらに、パーソナライズされたアプリケーションに統合されると、SAMDはメモリ構築の効率と品質の両方を著しく向上させ、個人的知識の組織化に繋がる。
関連論文リスト
- The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - EvolMem: A Cognitive-Driven Benchmark for Multi-Session Dialogue Memory [63.84216832544323]
EvolMemは、大規模言語モデル(LLM)とエージェントシステムのマルチセッションメモリ機能を評価するための新しいベンチマークである。
このベンチマークを構築するために,話題から始まる生成と物語から着想を得た変換からなるハイブリッドデータ合成フレームワークを提案する。
広範囲な評価により、LLMが全てのメモリ次元で常に他よりも優れていることが分かる。
論文 参考訳(メタデータ) (2026-01-07T03:14:42Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - CAIM: Development and Evaluation of a Cognitive AI Memory Framework for Long-Term Interaction with Intelligent Agents [1.6082737760346446]
大規模言語モデル(LLM)は人工知能(AI)の分野を進歩させ、インタラクティブシステムのための強力なイネーブラーとなっている。
ユーザに対して適応する必要のある長期的なインタラクションや、常に変化する環境のコンテキスト的知識や理解において、依然として課題に直面しています。
これらの課題を克服するためには、インタラクションセッション間で関連情報を効率的に検索し保存するために、全体論的メモリモデリングが必要である。
コンピュータ化されたモデルで人間の思考プロセスをシミュレートすることを目的とした認知AIは、思考、記憶機構、意思決定といった興味深い側面を強調している。
論文 参考訳(メタデータ) (2025-05-19T12:33:52Z) - A Framework for Inference Inspired by Human Memory Mechanisms [9.408704431898279]
本稿では,知覚,記憶,推論の構成要素からなるPMIフレームワークを提案する。
メモリモジュールは、ワーキングメモリと長期メモリから構成され、後者は、広範囲で複雑なリレーショナル知識と経験を維持するために、高次構造を備えている。
我々は、bAbI-20kやSolt-of-CLEVRデータセットのような質問応答タスクにおいて、一般的なTransformerとCNNモデルを改善するためにPMIを適用します。
論文 参考訳(メタデータ) (2023-10-01T08:12:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。