論文の概要: Leveraging Language Semantics for Collaborative Filtering with TextGCN and TextGCN-MLP: Zero-Shot vs In-Domain Performance
- arxiv url: http://arxiv.org/abs/2510.12461v1
- Date: Tue, 14 Oct 2025 12:50:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.315962
- Title: Leveraging Language Semantics for Collaborative Filtering with TextGCN and TextGCN-MLP: Zero-Shot vs In-Domain Performance
- Title(参考訳): TextGCNとTextGCN-MLPを用いた協調フィルタリングのための言語セマンティクスの活用:ゼロショット対インドメイン性能
- Authors: Andrei Chernov, Haroon Wahab, Oleg Novitskij,
- Abstract要約: パラメータフリーグラフ畳み込み層を LLM の項目タイトル埋め込みに直接適用する textbfTextGCN を提案する。
言語意味論とグラフメッセージパッシングを組み合わせることで、このアーキテクチャは最先端のゼロショット性能を実現する。
また,TextGCNを拡張したTextbfTextGCN-MLPも導入した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years, various approaches have been proposed to leverage large language models (LLMs) for incorporating textual information about items into recommender systems. Existing methods primarily focus on either fine-tuning LLMs to generate recommendations or integrating LLM-based embeddings into downstream models. In this work, we follow the latter direction and propose \textbf{TextGCN}, which applies parameter-free graph convolution layers directly over LLM-based item-title embeddings, instead of learning ID-based embeddings as in traditional methods. By combining language semantics with graph message passing, this architecture achieves state-of-the-art zero-shot performance, significantly outperforming prior approaches. Furthermore, we introduce \textbf{TextGCN-MLP}, which extends TextGCN with a trainable multilayer perceptron trained using a contrastive loss, achieving state-of-the-art in-domain performance on recommendation benchmarks. However, the zero-shot performance of TextGCN-MLP remains lower than that of TextGCN, highlighting the trade-off between in-domain specialization and zero-shot generalization. We release our code on github at \href{https://github.com/ChernovAndrey/TFCE}{github.com/ChernovAndrey/TFCE}.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)を活用して,商品に関するテキスト情報をレコメンデーションシステムに組み込む手法が提案されている。
既存の手法は主に、レコメンデーションを生成するための微調整のLLMか、あるいは下流モデルにLLMベースの埋め込みを統合することに焦点を当てている。
本研究では,従来の手法のようにIDベースの埋め込みを学習するのではなく, LLMベースの項目タイトル埋め込みに直接パラメータフリーグラフ畳み込み層を適用する。
言語セマンティクスとグラフメッセージパッシングを組み合わせることで、このアーキテクチャは最先端のゼロショットのパフォーマンスを実現し、従来のアプローチよりも大幅に優れています。
さらに,テキストGCNをトレーニング可能な多層パーセプトロンで拡張した \textbf{TextGCN-MLP} を導入する。
しかし、TextGCN-MLPのゼロショット性能はTextGCNよりも低く、ドメイン内特殊化とゼロショット一般化のトレードオフを強調している。
私たちは github のコードを \href{https://github.com/ChernovAndrey/TFCE}{github.com/ChernovAndrey/TFCE} でリリースしています。
関連論文リスト
- NL in the Middle: Code Translation with LLMs and Intermediate Representations [56.77064674776534]
大きな言語モデル(LLM)はバグのあるコード翻訳を生成する。
翻訳精度を向上させるための有望な道の1つは中間表現である。
LLMに基づくコード翻訳が中間表現の恩恵を受けるかどうかを検討する。
論文 参考訳(メタデータ) (2025-07-11T14:29:21Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - GMLM: Bridging Graph Neural Networks and Language Models for Heterophilic Node Classification [0.0]
本稿では,事前学習したテキストエンコーダとグラフ畳み込みネットワーク(R-GCN)を効果的に融合するフレームワークを提案する。
5つのヘテロ親和性ベンチマークの実験により、我々の積分法は最先端の結果が得られることを示した。
これらの結果は,テキストリッチグラフ表現学習における融合戦略の有効性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-02-24T07:44:01Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。