論文の概要: PersonalAI: Towards digital twins in the graph form
- arxiv url: http://arxiv.org/abs/2506.17001v1
- Date: Fri, 20 Jun 2025 13:52:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.469852
- Title: PersonalAI: Towards digital twins in the graph form
- Title(参考訳): PersonalAI:グラフ形式のデジタル双生児を目指して
- Authors: Mikhail Menschikov, Dmitry Evseev, Ruslan Kostoev, Ilya Perepechkin, Ilnaz Salimov, Victoria Dochkina, Petr Anokhin, Evgeny Burnaev, Nikita Semenov,
- Abstract要約: LLM自体によって構築・更新される知識グラフの形で外部メモリを活用することを提案する。
私たちはAriGraphアーキテクチャのアイデアを拡張し、標準エッジと2種類のハイパーエッジを備えたグラフを初めて導入しました。
TriviaQA、HotpotQA、DiaASQベンチマークで実施された実験は、この手法がグラフ構築と知識抽出のプロセスの統一と堅牢化に役立つことを示唆している。
- 参考スコア(独自算出の注目度): 14.961546969761718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The challenge of personalizing language models, specifically the ability to account for a user's history during interactions, is of significant interest. Despite recent advancements in large language models (LLMs) and Retrieval Augmented Generation that have enhanced the factual base of LLMs, the task of retaining extensive personal information and using it to generate personalized responses remains pertinent. To address this, we propose utilizing external memory in the form of knowledge graphs, which are constructed and updated by the LLM itself. We have expanded upon ideas of AriGraph architecture and for the first time introduced a combined graph featuring both standard edges and two types of hyperedges. Experiments conducted on the TriviaQA, HotpotQA and DiaASQ benchmarks indicates that this approach aids in making the process of graph construction and knowledge extraction unified and robust. Furthermore, we augmented the DiaASQ benchmark by incorporating parameters such as time into dialogues and introducing contradictory statements made by the same speaker at different times. Despite these modifications, the performance of the question-answering system remained robust, demonstrating the proposed architecture's ability to maintain and utilize temporal dependencies.
- Abstract(参考訳): 言語モデルをパーソナライズすること、特にインタラクション中のユーザの履歴を説明できることの課題は、大きな関心事である。
大規模言語モデル(LLM)やLLMの現実的基盤を強化した検索拡張世代(Retrieval Augmented Generation)の最近の進歩にもかかわらず、広範な個人情報を保持し、パーソナライズされた応答を生成するタスクは、今もなお重要である。
そこで本研究では,LLM自体によって構築・更新される知識グラフの形式で外部メモリを活用することを提案する。
私たちはAriGraphアーキテクチャのアイデアを拡張し、標準エッジと2種類のハイパーエッジを備えたグラフを初めて導入しました。
TriviaQA、HotpotQA、DiaASQベンチマークで実施された実験は、この手法がグラフ構築と知識抽出のプロセスの統一と堅牢化に役立つことを示唆している。
さらに、時間などのパラメータを対話に組み込むことにより、DiaASQベンチマークを拡張し、異なるタイミングで同じ話者による矛盾文を導入する。
これらの変更にもかかわらず、質問応答システムの性能は頑健であり、提案されたアーキテクチャの時間的依存の維持と活用の能力を実証した。
関連論文リスト
- AutoG: Towards automatic graph construction from tabular data [60.877867570524884]
本稿では,グラフ構築問題を形式化し,効果的な解法を提案する。
既存の自動工法は特定の場合にのみ適用できる。
本稿では,グラフ構築手法の形式化と評価を行うデータセットについて述べる。
第2に,高品質なグラフスキーマを自動生成するLLMベースのソリューションAutoGを提案する。
論文 参考訳(メタデータ) (2025-01-25T17:31:56Z) - Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - Two-stage Generative Question Answering on Temporal Knowledge Graph Using Large Language Models [24.417129499480975]
本稿ではまず,新しい時間的知識グラフ質問応答フレームワークGenTKGQAを提案する。
まず、LLMの本質的な知識を利用して、時間的制約や質問の構造的リンクを余分な訓練なしに掘り下げる。
次に、サブグラフのグラフニューラルネットワーク信号とLLMのテキスト表現を非浅めに融合させる仮想知識インジケータを設計する。
論文 参考訳(メタデータ) (2024-02-26T13:47:09Z) - Knowledge Graph for NLG in the context of conversational agents [0.0]
本稿では,グラフニューラルネットワーク,グラフ変換器,セq2seqモデルによる線形化など,グラフからテキストへの知識生成に使用されるさまざまなアーキテクチャについてレビューする。
我々は PLM 上での kg-to-text 生成のベンチマークデータセットを改良し,今後の作業における感情的・多言語的側面について検討することを目的としている。
論文 参考訳(メタデータ) (2023-07-04T08:03:33Z) - History Semantic Graph Enhanced Conversational KBQA with Temporal
Information Modeling [28.27368343751272]
会話履歴における長距離意味的依存関係を効果的にモデル化できる履歴意味グラフ拡張KBQAモデル(HSGE)を提案する。
複雑な逐次質問応答のためのベンチマークデータセットを用いてHSGEを評価した。
論文 参考訳(メタデータ) (2023-06-12T05:10:58Z) - Enhancing Knowledge Graph Construction Using Large Language Models [0.0]
本稿では,ChatGPTのような基礎LPMの現在の進歩を,REBELのような特定の事前学習モデルと比較し,結合実体と関係抽出について述べる。
生テキストから知識グラフを自動生成するためのパイプラインを作成し,高度なLCMモデルを用いることで,非構造化テキストからこれらのグラフを作成するプロセスの精度が向上することを示した。
論文 参考訳(メタデータ) (2023-05-08T12:53:06Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - SEEK: Segmented Embedding of Knowledge Graphs [77.5307592941209]
本稿では,モデル複雑性を増大させることなく,高い競争力を持つ関係表現性を実現する軽量なモデリングフレームワークを提案する。
本フレームワークは,評価関数の設計に重点を置いており,1)十分な特徴相互作用の促進,2)関係の対称性と反対称性の両特性の保存,という2つの重要な特徴を強調している。
論文 参考訳(メタデータ) (2020-05-02T15:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。