論文の概要: PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents
- arxiv url: http://arxiv.org/abs/2506.17001v2
- Date: Mon, 11 Aug 2025 13:41:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 16:55:53.172459
- Title: PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents
- Title(参考訳): PersonalAI:パーソナライズされたLLMエージェントのための知識グラフストレージと検索アプローチの体系的比較
- Authors: Mikhail Menschikov, Dmitry Evseev, Victoria Dochkina, Ruslan Kostoev, Ilia Perepechkin, Petr Anokhin, Evgeny Burnaev, Nikita Semenov,
- Abstract要約: 大規模言語モデル (LLM) とRetrieval-Augmented Generation (RAG) の組み合わせは、複雑な長期的相互作用においてスケールできない。
LLM自体によって自動的に構築・更新される知識グラフに基づくフレキシブルな外部メモリフレームワークを提案する。
AriGraphアーキテクチャに基づいて、標準エッジと2種類のハイパーエッジの両方をサポートする新しいハイブリッドグラフ設計を導入する。
本稿では,TriviaQA,HotpotQA,DiaASQ-demonstratingの3つのベンチマークを用いて,メモリと検索の異なる構成でタスクに応じて最適な性能が得られることを示す。
- 参考スコア(独自算出の注目度): 15.524189150821147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalizing language models by effectively incorporating user interaction history remains a central challenge in the development of adaptive AI systems. While large language models (LLMs) combined with Retrieval-Augmented Generation (RAG) have improved factual accuracy, they often lack structured memory and fail to scale in complex, long-term interactions. To address this, we propose a flexible external memory framework based on knowledge graphs, automatically constructed and updated by the LLM itself, and capable of encoding information in multiple formats-including nodes, triplets, higher-order propositions, and episodic traces. Building upon the AriGraph architecture, we introduce a novel hybrid graph design that supports both standard edges and two types of hyperedges, enabling rich and dynamic semantic and temporal representations. Our framework also supports diverse retrieval mechanisms, including A*, water-circle propagation, beam search, and hybrid methods, making it adaptable to different datasets and LLM capacities. We evaluate our system on three benchmarks-TriviaQA, HotpotQA, and DiaASQ-demonstrating that different memory and retrieval configurations yield optimal performance depending on the task. Additionally, we extend the DiaASQ benchmark with temporal annotations and internally contradictory statements, showing that our system remains robust and effective in managing temporal dependencies and context-aware reasoning.
- Abstract(参考訳): ユーザインタラクション履歴を効果的に取り入れることで言語モデルをパーソナライズすることは、適応型AIシステムの開発において重要な課題である。
大規模言語モデル(LLM)とRAG(Retrieval-Augmented Generation)が組み合わさって現実の精度が向上する一方で、構造化メモリが欠如し、複雑な長期的相互作用ではスケールできないことが多い。
そこで本研究では,知識グラフに基づくフレキシブルな外部メモリフレームワークを提案し,LLM自体によって自動的に構築・更新され,ノード,トリプレット,高次命題,エピソードトレースを含む複数のフォーマットで情報をエンコードすることができる。
AriGraphアーキテクチャに基づいて、標準エッジと2種類のハイパーエッジの両方をサポートする新しいハイブリッドグラフ設計を導入し、リッチで動的セマンティックな表現と時間的表現を可能にします。
我々のフレームワークは、A*、水循環伝播、ビームサーチ、ハイブリッド手法などの多様な検索機構もサポートしており、異なるデータセットやLLM容量に適応できる。
本稿では,TriviaQA,HotpotQA,DiaASQ-demonstratingの3つのベンチマークを用いて,メモリと検索の異なる構成でタスクに応じて最適な性能が得られることを示す。
さらに、DiaASQベンチマークを時間的アノテーションと内部矛盾文で拡張し、我々のシステムは時間的依存関係や文脈を考慮した推論の管理に堅牢かつ効果的であることを示す。
関連論文リスト
- Understanding Long Videos via LLM-Powered Entity Relation Graphs [51.13422967711056]
GraphVideoAgentは、ビデオシーケンスを通して視覚的エンティティ間の進化する関係をマップし、監視するフレームワークである。
当社の手法は,業界ベンチマークと比較した場合,顕著な効果を示す。
論文 参考訳(メタデータ) (2025-01-27T10:57:24Z) - AutoG: Towards automatic graph construction from tabular data [60.877867570524884]
本稿では,グラフ構築問題を形式化し,効果的な解法を提案する。
既存の自動工法は特定の場合にのみ適用できる。
本稿では,グラフ構築手法の形式化と評価を行うデータセットについて述べる。
第2に,高品質なグラフスキーマを自動生成するLLMベースのソリューションAutoGを提案する。
論文 参考訳(メタデータ) (2025-01-25T17:31:56Z) - Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - AriGraph: Learning Knowledge Graph World Models with Episodic Memory for LLM Agents [18.369668601864575]
AriGraphは、環境を探索しながら意味記憶とエピソード記憶を統合するメモリグラフである。
我々は,Ariadne LLMエージェントが対話型テキストゲーム環境における複雑なタスクを,人間プレイヤーでも効果的に処理できることを実証した。
論文 参考訳(メタデータ) (2024-07-05T09:06:47Z) - Two-stage Generative Question Answering on Temporal Knowledge Graph Using Large Language Models [24.417129499480975]
本稿ではまず,新しい時間的知識グラフ質問応答フレームワークGenTKGQAを提案する。
まず、LLMの本質的な知識を利用して、時間的制約や質問の構造的リンクを余分な訓練なしに掘り下げる。
次に、サブグラフのグラフニューラルネットワーク信号とLLMのテキスト表現を非浅めに融合させる仮想知識インジケータを設計する。
論文 参考訳(メタデータ) (2024-02-26T13:47:09Z) - Knowledge Graph for NLG in the context of conversational agents [0.0]
本稿では,グラフニューラルネットワーク,グラフ変換器,セq2seqモデルによる線形化など,グラフからテキストへの知識生成に使用されるさまざまなアーキテクチャについてレビューする。
我々は PLM 上での kg-to-text 生成のベンチマークデータセットを改良し,今後の作業における感情的・多言語的側面について検討することを目的としている。
論文 参考訳(メタデータ) (2023-07-04T08:03:33Z) - History Semantic Graph Enhanced Conversational KBQA with Temporal
Information Modeling [28.27368343751272]
会話履歴における長距離意味的依存関係を効果的にモデル化できる履歴意味グラフ拡張KBQAモデル(HSGE)を提案する。
複雑な逐次質問応答のためのベンチマークデータセットを用いてHSGEを評価した。
論文 参考訳(メタデータ) (2023-06-12T05:10:58Z) - Enhancing Knowledge Graph Construction Using Large Language Models [0.0]
本稿では,ChatGPTのような基礎LPMの現在の進歩を,REBELのような特定の事前学習モデルと比較し,結合実体と関係抽出について述べる。
生テキストから知識グラフを自動生成するためのパイプラインを作成し,高度なLCMモデルを用いることで,非構造化テキストからこれらのグラフを作成するプロセスの精度が向上することを示した。
論文 参考訳(メタデータ) (2023-05-08T12:53:06Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - SEEK: Segmented Embedding of Knowledge Graphs [77.5307592941209]
本稿では,モデル複雑性を増大させることなく,高い競争力を持つ関係表現性を実現する軽量なモデリングフレームワークを提案する。
本フレームワークは,評価関数の設計に重点を置いており,1)十分な特徴相互作用の促進,2)関係の対称性と反対称性の両特性の保存,という2つの重要な特徴を強調している。
論文 参考訳(メタデータ) (2020-05-02T15:15:50Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。