論文の概要: Personalized Graph-Empowered Large Language Model for Proactive Information Access
- arxiv url: http://arxiv.org/abs/2602.21862v1
- Date: Wed, 25 Feb 2026 12:43:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.835495
- Title: Personalized Graph-Empowered Large Language Model for Proactive Information Access
- Title(参考訳): プロアクティブ情報アクセスのためのパーソナライズされたグラフ駆動型大規模言語モデル
- Authors: Chia Cheng Chang, An-Zi Yen, Hen-Hsen Huang, Hsin-Hsi Chen,
- Abstract要約: 大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な能力を示している。
プロアクティブ情報アクセスにLLMを利用するフレームワークを提案する。
我々のフレームワークは高い柔軟性を提供し、ベースモデルの置き換えや、継続的な改善のための事実検索方法の変更を可能にします。
- 参考スコア(独自算出の注目度): 26.095033653513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since individuals may struggle to recall all life details and often confuse events, establishing a system to assist users in recalling forgotten experiences is essential. While numerous studies have proposed memory recall systems, these primarily rely on deep learning techniques that require extensive training and often face data scarcity due to the limited availability of personal lifelogs. As lifelogs grow over time, systems must also adapt quickly to newly accumulated data. Recently, large language models (LLMs) have demonstrated remarkable capabilities across various tasks, making them promising for personalized applications. In this work, we present a framework that leverages LLMs for proactive information access, integrating personal knowledge graphs to enhance the detection of access needs through a refined decision-making process. Our framework offers high flexibility, enabling the replacement of base models and the modification of fact retrieval methods for continuous improvement. Experimental results demonstrate that our approach effectively identifies forgotten events, supporting users in recalling past experiences more efficiently.
- Abstract(参考訳): 個人は、すべての人生の詳細を思い出すのに苦労し、しばしば出来事を混乱させるため、忘れられた経験を思い出すのを助けるシステムを確立することが不可欠である。
多くの研究がメモリリコールシステムを提案しているが、これらは主に広範囲のトレーニングを必要とするディープラーニング技術に依存しており、個人的なライフログが限られているため、データ不足に直面していることが多い。
ライフログが時間とともに大きくなるにつれて、システムは新たに蓄積したデータに迅速に適応する必要がある。
最近、大きな言語モデル(LLM)は様々なタスクにまたがって顕著な機能を示しており、パーソナライズされたアプリケーションに期待できる。
本研究では,情報アクセスのためのLCMを活用し,個人知識グラフを統合し,洗練された意思決定プロセスを通じてアクセスニーズの検出を強化するフレームワークを提案する。
我々のフレームワークは高い柔軟性を提供し、ベースモデルの置き換えや、継続的な改善のための事実検索方法の変更を可能にします。
実験の結果,忘れられた出来事を効果的に識別し,過去の体験をより効率的に思い出すユーザを支援することが確認できた。
関連論文リスト
- Retrieval-augmented Prompt Learning for Pre-trained Foundation Models [101.13972024610733]
本稿では,記憶と一般化のバランスをとることを目的としたRetroPromptを提案する。
従来のプロンプトメソッドとは異なり、RetroPromptは入力、トレーニング、推論ステージ全体にわたって検索メカニズムを組み込んでいる。
提案手法の優れた性能を示すために,自然言語処理やコンピュータビジョンタスクにまたがる様々なデータセットに関する総合的な実験を行った。
論文 参考訳(メタデータ) (2025-12-23T08:15:34Z) - Forget Less, Retain More: A Lightweight Regularizer for Rehearsal-Based Continual Learning [51.07663354001582]
ディープニューラルネットワークは破滅的な忘れ込みに悩まされ、新しいタスクのトレーニング後に以前のタスクのパフォーマンスが低下する。
本稿では,メモリベースの手法と正規化手法の交わりに着目し,この問題に対処する新しいアプローチを提案する。
我々は、メモリベース連続学習法において、情報最大化(IM)正則化と呼ばれる正規化戦略を定式化する。
論文 参考訳(メタデータ) (2025-12-01T15:56:00Z) - Privacy-Aware Lifelong Learning [14.83033354320841]
機械学習の分野は、要求された時に事前訓練されたモデルから、ある以前の知識を明示的に忘れることに焦点を当てている。
本稿では,タスク固有のスパースワークとパラメータ共有の最適化を含む,プライバシを意識した生涯学習(PALL)を提案する。
画像分類におけるPALLのスケーラビリティを実証的に実証し,最先端のソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-16T07:27:00Z) - PCL: Prompt-based Continual Learning for User Modeling in Recommender Systems [14.865675196583334]
本稿では,各タスクの外部メモリとして位置対応プロンプトを利用する,ユーザモデリングのためのPromptベースの連続学習フレームワークを提案する。
我々は,PCLの有効性を示すために,実世界のデータセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2025-02-26T23:47:33Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.40798352740857]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Embedding-Informed Adaptive Retrieval-Augmented Generation of Large Language Models [37.02290559379761]
Retrieval-augmented large language model (LLMs) は、様々なNLPタスクにおいて非常に有能である。
このことに動機づけられた、適応検索拡張生成(ARAG)研究は、クエリによって要求される知識が LLM に欠如している場合にのみ検索する。
論文 参考訳(メタデータ) (2024-04-04T15:21:22Z) - Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement [79.2400720115588]
本稿では,タスクコンテキスト間の一般化を改善するための階層的な構築プロセスからなる,シンプルで効果的なフレームワークであるPersona-DBを紹介する。
応答予測の評価において,Persona-DB は精度を著しく低減した検索サイズで維持する上で,より優れたコンテキスト効率を示す。
我々の実験は、ユーザーが極めて少ないデータを持つ場合、コールドスタートシナリオで10%以上の顕著な改善が示されていることも示している。
論文 参考訳(メタデータ) (2024-02-16T20:20:43Z) - Integrating Summarization and Retrieval for Enhanced Personalization via
Large Language Models [11.950478880423733]
パーソナライゼーションは自然言語処理(NLP)システムにおけるユーザエクスペリエンスにおいて重要な要素である。
LLM(Large Language Models)の出現によって、重要な疑問は、これらのモデルを使ってユーザエクスペリエンスをよりパーソナライズする方法である。
LLMが生成するタスク対応ユーザ要約を用いた,新しい要約型パーソナライゼーションを提案する。
論文 参考訳(メタデータ) (2023-10-30T23:40:41Z) - Learning and Retrieval from Prior Data for Skill-based Imitation
Learning [47.59794569496233]
従来のデータから時間的に拡張された感触者スキルを抽出する,スキルベースの模倣学習フレームワークを開発した。
新規タスクの性能を著しく向上させる重要な設計選択をいくつか挙げる。
論文 参考訳(メタデータ) (2022-10-20T17:34:59Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - A System for Real-Time Interactive Analysis of Deep Learning Training [66.06880335222529]
現在利用可能なシステムは、トレーニングプロセスが始まる前に指定しなければならないログデータのみを監視することに限定されている。
本稿では,リアルタイム情報を生成するライブプロセス上で対話型クエリを実行可能にするシステムを提案する。
論文 参考訳(メタデータ) (2020-01-05T11:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。