論文の概要: Avoiding Over-Personalization with Rule-Guided Knowledge Graph Adaptation for LLM Recommendations
- arxiv url: http://arxiv.org/abs/2509.07133v1
- Date: Mon, 08 Sep 2025 18:33:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.083498
- Title: Avoiding Over-Personalization with Rule-Guided Knowledge Graph Adaptation for LLM Recommendations
- Title(参考訳): LLM勧告に対するルールガイド付き知識グラフ適応によるオーバーパーソナライゼーションの回避
- Authors: Fernando Spadea, Oshani Seneviratne,
- Abstract要約: LLMに基づくレコメンデーションシステムにおいて、オーバーパーソナライゼーションを再構築するためのニューロシンボリックな枠組みを提案する。
我々は,ユーザ側知識グラフ(KG)を推定時間に適応させ,特徴共起パターンを抑制する。
これらの適応されたPKGは、より多様なOut-PIEレコメンデーションに向けて言語モデルを操る構造化プロンプトを構築するために使用される。
- 参考スコア(独自算出の注目度): 46.90931293070464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a lightweight neuro-symbolic framework to mitigate over-personalization in LLM-based recommender systems by adapting user-side Knowledge Graphs (KGs) at inference time. Instead of retraining models or relying on opaque heuristics, our method restructures a user's Personalized Knowledge Graph (PKG) to suppress feature co-occurrence patterns that reinforce Personalized Information Environments (PIEs), i.e., algorithmically induced filter bubbles that constrain content diversity. These adapted PKGs are used to construct structured prompts that steer the language model toward more diverse, Out-PIE recommendations while preserving topical relevance. We introduce a family of symbolic adaptation strategies, including soft reweighting, hard inversion, and targeted removal of biased triples, and a client-side learning algorithm that optimizes their application per user. Experiments on a recipe recommendation benchmark show that personalized PKG adaptations significantly increase content novelty while maintaining recommendation quality, outperforming global adaptation and naive prompt-based methods.
- Abstract(参考訳): 本稿では,ユーザ側知識グラフ(KG)を推論時間に適応させることで,LLMベースのレコメンデータシステムにおける過剰な個人化を緩和する,軽量なニューラルシンボリックフレームワークを提案する。
提案手法は,モデルの再学習や不透明なヒューリスティックスに頼る代わりに,ユーザのパーソナライズド知識グラフ(PKG)を再構成し,パーソナライズド情報環境(PIE)を強化する特徴共起パターン,すなわち,コンテンツの多様性を制限するアルゴリズム的に誘導されるフィルタバブルを抑圧する。
これらの適応されたPKGは、言語モデルをより多様なOut-PIEレコメンデーションに向けて、トピックの関連性を保ちながら、構造化されたプロンプトを構築するために使用される。
本稿では,ソフトリウェイト,ハードインバージョン,バイアストリプルのターゲット除去,ユーザ毎のアプリケーションを最適化するクライアント側学習アルゴリズムなど,象徴的な適応戦略のファミリを紹介する。
レシピ・レコメンデーション・ベンチマークの実験では、パーソナライズされたPKG適応は、レコメンデーション品質を維持しながらコンテンツノベルティを著しく向上させ、グローバルなアダプティブやナイーブなプロンプトベースの手法よりも優れていた。
関連論文リスト
- One Adapts to Any: Meta Reward Modeling for Personalized LLM Alignment [55.86333374784959]
これらの制約に対処するには、データの適合からユーザの好みを学習し、嗜好適応のプロセスを学ぶためのパラダイムシフトが必要である、と我々は主張する。
メタ学習問題としてパーソナライズされた報酬モデルを変更するメタリワードモデリング(MRM)を提案する。
MRMはパーソナライズを強化し、ユーザの堅牢性を向上し、ベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2026-01-26T17:55:52Z) - Generative Actor Critic [74.04971271003869]
Generative Actor Critic (GAC) は、軌道上での関節分布の生成モデル学習として、テキスト政治評価を反映して、シーケンシャルな意思決定を分離する新しいフレームワークである。
Gym-MuJoCoとMaze2Dベンチマークの実験では、GACの強いオフライン性能と、最先端の手法と比較してオフラインからオフラインへの大幅な改善が示されている。
論文 参考訳(メタデータ) (2025-12-25T06:31:11Z) - A Model-agnostic Strategy to Mitigate Embedding Degradation in Personalized Federated Recommendation [34.915843795521134]
パーソナライズされた埋め込みユーティリティを強化するための新しいモデルに依存しないFedRec戦略を提案する。
PLGCは、次元崩壊問題を緩和する連邦勧告における最初の研究である。
論文 参考訳(メタデータ) (2025-08-27T06:03:52Z) - What Makes LLMs Effective Sequential Recommenders? A Study on Preference Intensity and Temporal Context [56.590259941275434]
RecPOは、シーケンシャルなレコメンデーションのための優先順位最適化フレームワークである。
これは、推定された嗜好階層と時間信号に基づいて適応的な報酬マージンを利用する。
タイムリーな満足感、コヒーレントな嗜好の維持、変化する状況下での識別の行使など、人間の意思決定の重要な特徴を反映している。
論文 参考訳(メタデータ) (2025-06-02T21:09:29Z) - Graph Retrieval-Augmented LLM for Conversational Recommendation Systems [52.35491420330534]
G-CRS(Graph Retrieval-Augmented Large Language Model for Conversational Recommender Systems)は、グラフ検索強化世代とテキスト内学習を組み合わせた学習自由フレームワークである。
G-CRSは、タスク固有のトレーニングを必要とせず、既存の手法よりも優れたレコメンデーション性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T03:56:22Z) - Enhancing Recommendation Systems with GNNs and Addressing Over-Smoothing [7.06152589784002]
本稿では、グラフニューラルネットワーク(GNN)を利用したレコメンデーションシステムの強化における重要な課題に対処する。
提案手法では、3つのGNNベースのレコメンデーションモデルを導入する。
この研究は、透明で正当化可能な提案を提供することを目的として、レコメンデーションシステムにおける解釈可能性の重要な必要性を強調している。
論文 参考訳(メタデータ) (2024-12-04T07:50:27Z) - Unveiling User Preferences: A Knowledge Graph and LLM-Driven Approach for Conversational Recommendation [55.5687800992432]
本稿では,Large Language Models (LLMs) とKGs (KGs) を相乗化するプラグイン・アンド・プレイフレームワークを提案する。
これにより、LLMはKGエンティティを簡潔な自然言語記述に変換することができ、ドメイン固有の知識を理解できるようになる。
論文 参考訳(メタデータ) (2024-11-16T11:47:21Z) - RosePO: Aligning LLM-based Recommenders with Human Values [38.029251417802044]
我々は、パーソナライズされた選好最適化(RosePO)を円滑にするための一般的なフレームワークを提案する。
RosePOは、トレーニング後の段階において、カスタマイズされた人的価値との整合性が向上する。
実世界の3つのデータセットの評価は,本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-10-16T12:54:34Z) - LLM-Powered Explanations: Unraveling Recommendations Through Subgraph Reasoning [40.53821858897774]
本稿では,Large Language Models (LLMs) とKGs (KGs) を相乗する新しいレコメンデータを紹介し,そのレコメンデーションを強化し,解釈可能な結果を提供する。
提案手法は,レコメンデータシステムの有効性と解釈性を両立させる。
論文 参考訳(メタデータ) (2024-06-22T14:14:03Z) - Linear Alignment: A Closed-form Solution for Aligning Human Preferences without Tuning and Feedback [70.32795295142648]
リニアアライメントは、言語モデルと人間の好みを1つの推論ステップで整列する新しいアルゴリズムである。
一般的な選好データセットとパーソナライズされた選好データセットの実験により、線形アライメントはLLMアライメントの性能と効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-01-21T10:46:23Z) - AURO: Reinforcement Learning for Adaptive User Retention Optimization in Recommender Systems [25.18963930580529]
強化学習(Reinforcement Learning, RL)は、レコメンデーションシステムにおけるユーザ保持の最適化能力に注目が集まっている。
本稿では,この課題に対処するため,textbfAdaptive textbfUser textbfRetention textbfOptimization (AURO) という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-06T02:45:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。