論文の概要: Large Language Model Enhanced Graph Invariant Contrastive Learning for Out-of-Distribution Recommendation
- arxiv url: http://arxiv.org/abs/2511.18282v1
- Date: Sun, 23 Nov 2025 04:24:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.744649
- Title: Large Language Model Enhanced Graph Invariant Contrastive Learning for Out-of-Distribution Recommendation
- Title(参考訳): アウト・オブ・ディストリビューション・レコメンデーションのための大規模言語モデルによるグラフ不変性学習
- Authors: Jiahao Liang, Haoran Yang, Xiangyu Zhao, Zhiwen Yu, Mianjie Li, Chuan Shi, Kaixiang Yang,
- Abstract要約: InvGCLLMは、データ駆動モデルと知識駆動LLMの強みを統合する革新的な因果学習フレームワークである。
InvGCLLMは配布外リコメンデーションの大幅な改善を実現し、一貫して最先端のベースラインを上回っていることを示す。
- 参考スコア(独自算出の注目度): 41.17308511272247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) generalization has emerged as a significant challenge in graph recommender systems. Traditional graph neural network algorithms often fail because they learn spurious environmental correlations instead of stable causal relationships, leading to substantial performance degradation under distribution shifts. While recent advancements in Large Language Models (LLMs) offer a promising avenue due to their vast world knowledge and reasoning capabilities, effectively integrating this knowledge with the fine-grained topology of specific graphs to solve the OOD problem remains a significant challenge. To address these issues, we propose {$\textbf{Inv}$ariant $\textbf{G}$raph $\textbf{C}$ontrastive Learning with $\textbf{LLM}$s for Out-of-Distribution Recommendation (InvGCLLM)}, an innovative causal learning framework that synergistically integrates the strengths of data-driven models and knowledge-driven LLMs. Our framework first employs a data-driven invariant learning model to generate causal confidence scores for each user-item interaction. These scores then guide an LLM to perform targeted graph refinement, leveraging its world knowledge to prune spurious connections and augment missing causal links. Finally, the structurally purified graphs provide robust supervision for a causality-guided contrastive learning objective, enabling the model to learn representations that are resilient to spurious correlations. Experiments conducted on four public datasets demonstrate that InvGCLLM achieves significant improvements in out-of-distribution recommendation, consistently outperforming state-of-the-art baselines.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)の一般化は、グラフレコメンデータシステムにおいて重要な課題となっている。
従来のグラフニューラルネットワークアルゴリズムは、安定した因果関係ではなく、急激な環境相関を学習するため、しばしば失敗する。
近年のLarge Language Models (LLM) の進歩は、その膨大な世界の知識と推論能力により、有望な道のりを提供するが、OOD問題を解決するために、特定のグラフの詳細なトポロジとこの知識を効果的に統合することは、大きな課題である。
これらの問題に対処するために、データ駆動モデルと知識駆動LLMの長所を相乗的に統合する革新的な因果学習フレームワークである{$\textbf{Inv}$ariant $\textbf{G}$raph $\textbf{C}$ontrastive Learning with $\textbf{LLM}$s for Out-of-Distriion Recommendation (InvGCLLM)}を提案する。
このフレームワークはまずデータ駆動型不変学習モデルを用いて,各ユーザ・イテムインタラクションの因果信頼スコアを生成する。
これらのスコアは、LLMを誘導して、目的のグラフ精錬を行い、その世界の知識を活用して、突発的な接続を創り出し、欠落した因果関係を増大させる。
最後に、構造的に精製されたグラフは因果性誘導型コントラスト学習の目的に対して堅牢な監視を提供し、モデルが素早い相関に耐性のある表現を学習できるようにする。
4つの公開データセットで実施された実験によると、InvGCLLMは配布外リコメンデーションの大幅な改善を実現し、一貫して最先端のベースラインを上回っている。
関連論文リスト
- Are LLMs Better GNN Helpers? Rethinking Robust Graph Learning under Deficiencies with Iterative Refinement [3.2910447933011535]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するコア技術として、Web関連のアプリケーションで広く採用されている。
現実のシナリオでは、そのようなグラフはGNNのパフォーマンスを著しく損なう欠陥を示す。
本稿では,Retrieval-Augmented Contrastive Refinementフレームワークによるロバストグラフ学習を提案する。
論文 参考訳(メタデータ) (2025-10-02T11:30:51Z) - G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Graph Representation Learning via Causal Diffusion for Out-of-Distribution Recommendation [8.826417093212099]
グラフニューラルネットワーク(GNN)ベースのレコメンデーションアルゴリズムは、トレーニングとテストデータは独立して同じ分散空間から引き出されると仮定する。
この仮定は、アウト・オブ・ディストリビューション(OOD)データの存在でしばしば失敗し、パフォーマンスが大幅に低下する。
OODレコメンデーションのための因果拡散によるグラフ表現学習(CausalDiffRec)を提案する。
論文 参考訳(メタデータ) (2024-08-01T11:51:52Z) - Empowering Graph Invariance Learning with Deep Spurious Infomax [27.53568333416706]
本稿では,頑健かつ一般的な帰納バイアスを誘発する新しいグラフ不変性学習パラダイムを提案する。
EQuADは、合成データセットにおける様々なバイアスの度合いにまたがって安定したパフォーマンスを示し、実世界のデータセットに最大311.76%の価格で挑戦する。
論文 参考訳(メタデータ) (2024-07-13T14:18:47Z) - G-SAP: Graph-based Structure-Aware Prompt Learning over Heterogeneous Knowledge for Commonsense Reasoning [8.02547453169677]
本稿では,G-SAP という名称のコモンセンス推論のためのグラフベース構造認識プロンプト学習モデルを提案する。
特にエビデンスグラフは、ConceptNet、Wikipedia、Cambridge Dictionaryといった複数の知識ソースを統合することで構築される。
その結果、既存のモデル、特にOpenbookQAデータセット上のSoTA LM+GNNsモデルよりも6.12%改善された。
論文 参考訳(メタデータ) (2024-05-09T08:28:12Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。