論文の概要: Large Language Models Enhanced Hyperbolic Space Recommender Systems
- arxiv url: http://arxiv.org/abs/2504.05694v1
- Date: Tue, 08 Apr 2025 05:35:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 00:09:54.981667
- Title: Large Language Models Enhanced Hyperbolic Space Recommender Systems
- Title(参考訳): 双曲型空間レコメンダシステムの拡張型言語モデル
- Authors: Wentao Cheng, Zhida Qin, Zexue Wu, Pengzhan Zhou, Tianyu Huang,
- Abstract要約: 本稿では,構造的・意味的両面から階層的な情報を抽出し,統合するHyperLLMというモデルに依存しないフレームワークを提案する。
その結果,HyperLLM は双曲空間と LLM に基づくレコメンデータシステムよりも優れ,40% 以上の性能向上を実現していることがわかった。
- 参考スコア(独自算出の注目度): 5.132187039529859
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) have attracted significant attention in recommender systems for their excellent world knowledge capabilities. However, existing methods that rely on Euclidean space struggle to capture the rich hierarchical information inherent in textual and semantic data, which is essential for capturing user preferences. The geometric properties of hyperbolic space offer a promising solution to address this issue. Nevertheless, integrating LLMs-based methods with hyperbolic space to effectively extract and incorporate diverse hierarchical information is non-trivial. To this end, we propose a model-agnostic framework, named HyperLLM, which extracts and integrates hierarchical information from both structural and semantic perspectives. Structurally, HyperLLM uses LLMs to generate multi-level classification tags with hierarchical parent-child relationships for each item. Then, tag-item and user-item interactions are jointly learned and aligned through contrastive learning, thereby providing the model with clear hierarchical information. Semantically, HyperLLM introduces a novel meta-optimized strategy to extract hierarchical information from semantic embeddings and bridge the gap between the semantic and collaborative spaces for seamless integration. Extensive experiments show that HyperLLM significantly outperforms recommender systems based on hyperbolic space and LLMs, achieving performance improvements of over 40%. Furthermore, HyperLLM not only improves recommender performance but also enhances training stability, highlighting the critical role of hierarchical information in recommender systems.
- Abstract(参考訳): LLM(Large Language Models)はその優れた世界知識能力のために推奨システムに大きな注目を集めている。
しかし、ユークリッド空間に依存する既存の手法は、テキストやセマンティックデータに固有のリッチな階層的な情報を捉えるのに苦労している。
双曲空間の幾何学的性質はこの問題に対処するための有望な解を提供する。
しかし, LLMsをベースとした手法を双曲空間と組み合わせることで, 多様な階層情報を効果的に抽出し, 組み込むことは容易ではない。
そこで我々は,構造的・意味的両面から階層的な情報を抽出し,統合するHyperLLMというモデルに依存しないフレームワークを提案する。
構造的には、HyperLLM は LLM を使用して、各項目の階層的な親子関係を持つマルチレベル分類タグを生成する。
そして、タグ・イテムとユーザ・イテムの相互作用を、対照的な学習を通じて共同で学習し、整合させ、明確な階層的情報を持つモデルを提供する。
セマンティクス的に、HyperLLMはセマンティクス埋め込みから階層情報を抽出し、シームレスな統合のためにセマンティクスとコラボレーティブスペースのギャップを埋める、新しいメタ最適化戦略を導入している。
大規模な実験により、HyperLLMは双曲空間とLLMに基づくレコメンデーターシステムよりも大幅に優れ、40%以上の性能改善が達成された。
さらに、HyperLLMはレコメンダのパフォーマンスを向上するだけでなく、トレーニングの安定性も向上し、レコメンダシステムにおける階層的情報の重要性を強調している。
関連論文リスト
- Comprehend, Divide, and Conquer: Feature Subspace Exploration via Multi-Agent Hierarchical Reinforcement Learning [10.317489871533565]
本稿では,複雑なデータセットに対する強化学習に基づく部分空間探索戦略であるHRLFSを紹介する。
HRLFSは、反復的な特徴空間探索により、下流機械学習性能を向上させる。
また,HRLFSは関与するエージェントの数を減らし,総実行時間を短縮することを示した。
論文 参考訳(メタデータ) (2025-04-24T08:16:36Z) - Multi-Modal Hypergraph Enhanced LLM Learning for Recommendation [27.583326184212194]
マルチモーダル・レコメンデーション(HeLLM)のための新しいフレームワークHypergraph Enhanced LLM Learningを提案する。
グラフレベルの文脈信号とシーケンスレベルの行動パターンを融合させることにより、複雑な高階意味的相関を捕捉する能力をLLMに装備する。
推薦者の事前学習フェーズでは、ユーザ間の共有された関心関係の選好を明らかにするために、ユーザハイパーグラフを設計する。
ハイパーグラフ畳み込みと相乗的コントラスト学習機構を導入し、学習された表現の識別可能性を高める。
論文 参考訳(メタデータ) (2025-04-13T09:12:35Z) - RALLRec+: Retrieval Augmented Large Language Model Recommendation with Reasoning [22.495874056980824]
本稿では,Representation Learning and textbfReasoning empowered search-textbfAugmented textbfLarge textbfLanguage model textbfRecommendation (RALLRec+)を提案する。
論文 参考訳(メタデータ) (2025-03-26T11:03:34Z) - EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - Comprehending Knowledge Graphs with Large Language Models for Recommender Systems [13.270018897057293]
知識グラフを改善するために,CoLaKGと呼ばれる新しい手法を提案する。
CoLaKGは大規模な言語モデル(LLM)を使用してKGベースのレコメンデーションを改善する。
論文 参考訳(メタデータ) (2024-10-16T04:44:34Z) - Unleash LLMs Potential for Recommendation by Coordinating Twin-Tower Dynamic Semantic Token Generator [60.07198935747619]
動的セマンティック・インデックス・パラダイムを採用した最初の生成型RSであるTTDS(Twin-Tower Dynamic Semantic Recommender)を提案する。
より具体的には、ツイン・トワー・セマンティック・トークン・ジェネレータをLLMベースのレコメンデータに統合する動的知識融合フレームワークを初めて提案する。
提案したTTDSレコメンデータは,平均19.41%のヒットレート,20.84%のNDCG測定値を実現している。
論文 参考訳(メタデータ) (2024-09-14T01:45:04Z) - MMREC: LLM Based Multi-Modal Recommender System [2.3113916776957635]
本稿では,Large Language Models(LLM)とディープラーニング技術を活用して,レコメンデータシステムを強化する新しい手法を提案する。
提案フレームワークは,マルチモーダル情報処理を取り入れたレコメンデーションの精度と妥当性を,統一された潜在空間表現を用いて向上することを目的としている。
論文 参考訳(メタデータ) (2024-08-08T04:31:29Z) - Exploring User Retrieval Integration towards Large Language Models for Cross-Domain Sequential Recommendation [66.72195610471624]
Cross-Domain Sequential Recommendationは、異なるドメイン間でユーザのシーケンシャルな好みをマイニングし、転送することを目的としている。
本稿では,ユーザ検索手法を探索し,CDSRの性能向上を目的とした URLLM という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T09:19:54Z) - Unsupervised Multimodal Clustering for Semantics Discovery in Multimodal Utterances [24.142013877384603]
本稿では,新しい教師なしマルチモーダルクラスタリング手法 (UMC) を提案する。
UMCは、マルチモーダルデータのための拡張ビューを構築するためのユニークなアプローチを導入し、事前トレーニングを実行するために使用される。
我々は、最先端の手法よりもクラスタリングメトリクスの2-6%のスコアが顕著に改善され、この領域で最初の成功例となった。
論文 参考訳(メタデータ) (2024-05-21T13:24:07Z) - OMH: Structured Sparsity via Optimally Matched Hierarchy for Unsupervised Semantic Segmentation [69.37484603556307]
Un Semantic segmenting (USS)は、事前に定義されたラベルに頼ることなく、イメージをセグメント化する。
上記の問題を同時に解決するために,OMH (Optimally Matched Hierarchy) という新しいアプローチを導入する。
我々のOMHは既存のUSS法と比較して教師なしセグメンテーション性能がよい。
論文 参考訳(メタデータ) (2024-03-11T09:46:41Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - HRKD: Hierarchical Relational Knowledge Distillation for Cross-domain
Language Model Compression [53.90578309960526]
大規模事前学習言語モデル(PLM)は、従来のニューラルネットワーク手法と比較して圧倒的な性能を示している。
階層的および領域的関係情報の両方を抽出する階層的関係知識蒸留法(HRKD)を提案する。
論文 参考訳(メタデータ) (2021-10-16T11:23:02Z) - Unsupervised Meta-Learning through Latent-Space Interpolation in
Generative Models [11.943374020641214]
生成モデルを用いてメタタスクを生成する手法について述べる。
提案手法であるLAtent Space Interpolation Unsupervised Meta-learning (LASium)が,現在の教師なし学習ベースラインよりも優れているか,あるいは競合していることがわかった。
論文 参考訳(メタデータ) (2020-06-18T02:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。