論文の概要: TextBridgeGNN: Pre-training Graph Neural Network for Cross-Domain Recommendation via Text-Guided Transfer
- arxiv url: http://arxiv.org/abs/2601.02366v1
- Date: Tue, 25 Nov 2025 08:36:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.487638
- Title: TextBridgeGNN: Pre-training Graph Neural Network for Cross-Domain Recommendation via Text-Guided Transfer
- Title(参考訳): TextBridgeGNN: テキストガイド転送によるクロスドメインレコメンデーションのための事前学習型グラフニューラルネットワーク
- Authors: Yiwen Chen, Yiqing Wu, Huishi Luo, Fuzhen Zhuang, Deqing Wang,
- Abstract要約: TextBridgeGNNは、トレーニング済みのGNNから下流タスクに知識を効果的に転送できる、事前トレーニングおよび微調整のフレームワークである。
TextBridgeGNNは、クロスドメイン、マルチドメイン、トレーニング不要の設定において、既存のメソッドよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 29.448133208328926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph-based recommendation has achieved great success in recent years. The classical graph recommendation model utilizes ID embedding to store essential collaborative information. However, this ID-based paradigm faces challenges in transferring to a new domain, making it hard to build a pre-trained graph recommendation model. This phenomenon primarily stems from two inherent challenges: (1) the non-transferability of ID embeddings due to isolated domain-specific ID spaces, and (2) structural incompatibility between heterogeneous interaction graphs across domains. To address these issues, we propose TextBridgeGNN, a pre-training and fine-tuning framework that can effectively transfer knowledge from a pre-trained GNN to downstream tasks. We believe the key lies in how to build the relationship between domains. Specifically, TextBridgeGNN uses text as a semantic bridge to connect domains through multi-level graph propagation. During the pre-training stage, textual information is utilized to break the data islands formed by multiple domains, and hierarchical GNNs are designed to learn both domain-specific and domain-global knowledge with text features, ensuring the retention of collaborative signals and the enhancement of semantics. During the fine-tuning stage, a similarity transfer mechanism is proposed. This mechanism initializes ID embeddings in the target domain by transferring from semantically related nodes, successfully transferring the ID embeddings and graph pattern. Experiments demonstrate that TextBridgeGNN outperforms existing methods in cross-domain, multi-domain, and training-free settings, highlighting its ability to integrate Pre-trained Language Model (PLM)-driven semantics with graph-based collaborative filtering without costly language model fine-tuning or real-time inference overhead.
- Abstract(参考訳): グラフベースのレコメンデーションは近年大きな成功を収めています。
古典的なグラフレコメンデーションモデルは、ID埋め込みを利用して重要な協調情報を格納する。
しかし、このIDベースのパラダイムは、新しいドメインへの転送の課題に直面しており、事前訓練されたグラフレコメンデーションモデルの構築が困難である。
この現象は、(1)孤立したドメイン固有のID空間によるID埋め込みの不干渉性、(2)ドメイン間の不均一な相互作用グラフの間の構造的不整合性という2つの固有の課題に起因している。
このような問題に対処するために,事前学習および微調整を行うフレームワークであるTextBridgeGNNを提案する。
重要なのは、ドメイン間の関係を構築する方法にある、と私たちは信じています。
具体的には、TextBridgeGNNはテキストをセマンティックブリッジとして使用して、マルチレベルグラフの伝搬を通じてドメインを接続する。
事前学習の段階では、テキスト情報を利用して複数のドメインによって形成されたデータアイランドを分解し、階層的なGNNは、ドメイン固有の知識とドメイン・グローバルな知識の両方をテキスト特徴で学習し、協調的な信号の保持とセマンティクスの強化を保証するように設計されている。
微調整段階では類似性伝達機構が提案されている。
このメカニズムは、意味的に関連するノードからID埋め込みを転送し、ID埋め込みとグラフパターンを転送することで、ターゲットドメインにID埋め込みを初期化する。
TextBridgeGNNは、クロスドメイン、マルチドメイン、トレーニング不要の設定において既存のメソッドよりも優れており、コストのかかる言語モデルやリアルタイム推論オーバーヘッドを伴わずに、プレトレーニング言語モデル(PLM)駆動のセマンティクスとグラフベースの協調フィルタリングを統合する能力を強調している。
関連論文リスト
- GraphBridge: Towards Arbitrary Transfer Learning in GNNs [65.01790632978962]
GraphBridgeは、GNNの異なるタスクやドメイン間での知識伝達を可能にする新しいフレームワークである。
予測ヘッドと入力を出力層に接続するブリッジングネットワークを備えた、事前訓練されたGNNの拡張を可能にする。
これらのシナリオを代表する16以上のデータセットで実施された実証検証では、タスクとドメインに依存しないトランスファー学習のためのフレームワークの能力が確認されている。
論文 参考訳(メタデータ) (2025-02-26T15:57:51Z) - One Model for One Graph: A New Perspective for Pretraining with Cross-domain Graphs [59.7297608804716]
複雑なネットワークパターンをキャプチャする強力なツールとして、グラフニューラルネットワーク(GNN)が登場した。
既存のGNNには、慎重にドメイン固有のアーキテクチャ設計と、データセットのスクラッチからのトレーニングが必要です。
我々は、新しいクロスドメイン事前学習フレームワーク「1つのグラフのための1つのモデル」を提案する。
論文 参考訳(メタデータ) (2024-11-30T01:49:45Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Graph Adaptive Semantic Transfer for Cross-domain Sentiment
Classification [68.06496970320595]
クロスドメイン感情分類(CDSC)は、ソースドメインから学んだ伝達可能なセマンティクスを使用して、ラベルなしのターゲットドメインにおけるレビューの感情を予測することを目的としている。
本稿では、単語列と構文グラフの両方からドメイン不変セマンティクスを学習できる適応型構文グラフ埋め込み法であるグラフ適応意味伝達(GAST)モデルを提案する。
論文 参考訳(メタデータ) (2022-05-18T07:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。