論文の概要: Hard vs. Noise: Resolving Hard-Noisy Sample Confusion in Recommender Systems via Large Language Models
- arxiv url: http://arxiv.org/abs/2511.07295v1
- Date: Mon, 10 Nov 2025 16:51:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.375697
- Title: Hard vs. Noise: Resolving Hard-Noisy Sample Confusion in Recommender Systems via Large Language Models
- Title(参考訳): ハード対ノイズ:大規模言語モデルによるレコメンダシステムにおけるハーディノイズサンプルの融合の解消
- Authors: Tianrui Song, Wen-Shuo Chao, Hao Liu,
- Abstract要約: トレーニングレコメンデータシステムで使用される暗黙のフィードバックは、ミスクリックや位置バイアスといった要因によって、避けられないほどノイズに直面する。
従来の研究では、より高い損失値などの分散したデータパターンを通じてノイズのあるサンプルを識別しようと試みてきた。
ノイズのあるサンプルと硬いサンプルが類似したパターンを呈し,ノイズの多い混乱問題を引き起こした。
- 参考スコア(独自算出の注目度): 4.7341002297388295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit feedback, employed in training recommender systems, unavoidably confronts noise due to factors such as misclicks and position bias. Previous studies have attempted to identify noisy samples through their diverged data patterns, such as higher loss values, and mitigate their influence through sample dropping or reweighting. However, we observed that noisy samples and hard samples display similar patterns, leading to hard-noisy confusion issue. Such confusion is problematic as hard samples are vital for modeling user preferences. To solve this problem, we propose LLMHNI framework, leveraging two auxiliary user-item relevance signals generated by Large Language Models (LLMs) to differentiate hard and noisy samples. LLMHNI obtains user-item semantic relevance from LLM-encoded embeddings, which is used in negative sampling to select hard negatives while filtering out noisy false negatives. An objective alignment strategy is proposed to project LLM-encoded embeddings, originally for general language tasks, into a representation space optimized for user-item relevance modeling. LLMHNI also exploits LLM-inferred logical relevance within user-item interactions to identify hard and noisy samples. These LLM-inferred interactions are integrated into the interaction graph and guide denoising with cross-graph contrastive alignment. To eliminate the impact of unreliable interactions induced by LLM hallucination, we propose a graph contrastive learning strategy that aligns representations from randomly edge-dropped views to suppress unreliable edges. Empirical results demonstrate that LLMHNI significantly improves denoising and recommendation performance.
- Abstract(参考訳): トレーニングレコメンデータシステムで使用される暗黙のフィードバックは、ミスクリックや位置バイアスといった要因によって、避けられないほどノイズに直面する。
従来の研究では、損失値の増大など、分散したデータパターンを通じてノイズのあるサンプルを特定し、サンプルの落下や再重み付けによって影響を緩和しようと試みてきた。
しかし, ノイズのあるサンプルと硬いサンプルが類似したパターンを呈し, ノイズの多い混乱問題を引き起こした。
ハードサンプルがユーザの好みをモデル化するのに不可欠であるため、このような混乱は問題となる。
この問題を解決するために,LLM(Large Language Models)が生成する2つの補助的ユーザ・イテム関連信号を利用して,難易度とノイズ度を区別するLLMHNIフレームワークを提案する。
LLMHNIは、ノイズの多い偽陰性をフィルタリングしながら、強陰性を選択するために、負のサンプリングに使用されるLDM符号化埋め込みから、ユーザ・イテムのセマンティックな関連性を得る。
汎用言語タスクのためのLLM符号化埋め込みを,ユーザ・イテム関係モデリングに最適化した表現空間にプロジェクションするために,客観的アライメント戦略を提案する。
LLMHNIはまた、ユーザとイテムの相互作用の中でLLMが推論した論理的関連性を利用して、ハードとノイズのサンプルを識別する。
これらのLLM-Inferred相互作用は、相互作用グラフに統合され、クロスグラフのコントラストアライメントを導出する。
LLM幻覚によって引き起こされる信頼できない相互作用の影響を排除するため、ランダムなエッジドロップされたビューから表現を整列させて信頼できないエッジを抑えるグラフコントラスト学習戦略を提案する。
実験の結果,LLMHNIは認知度とレコメンデーション性能を著しく向上することが示された。
関連論文リスト
- Can LLM-Driven Hard Negative Sampling Empower Collaborative Filtering? Findings and Potentials [9.668242919588199]
強い負のサンプルはモデル収束を加速し、決定境界を最適化する。
本稿ではセマンティックネガティブサンプリングの概念を紹介する。
協調信号によって制御される微調整LDMに基づくHNLMRecというフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-07T04:39:45Z) - Enhancing Sample Utilization in Noise-Robust Deep Metric Learning With Subgroup-Based Positive-Pair Selection [84.78475642696137]
実世界のデータにノイズラベルが存在することは、ディープラーニングモデルの性能に悪影響を及ぼす。
サブグループに基づく正対選択(SGPS)を用いたノイズロストDMLフレームワークを提案する。
SGPSは、ノイズのあるサンプルに対して信頼性の高い正のペアを構築し、サンプルの利用率を高める。
論文 参考訳(メタデータ) (2025-01-19T14:41:55Z) - Dissecting Representation Misalignment in Contrastive Learning via Influence Function [15.28417468377201]
コントラスト損失に対する拡張影響関数 (ECIF) を導入し, コントラスト損失に対する影響関数について検討した。
ECIFは正と負の両方のサンプルを考慮し、対照的な学習モデルの閉形式近似を提供する。
我々はECIFに基づいて,データ評価,誤修正検出,誤予測トレースバックタスクのための一連のアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-11-18T15:45:41Z) - Large Language Model Enhanced Hard Sample Identification for Denoising Recommendation [4.297249011611168]
暗黙のフィードバックは、しばしばレコメンデーションシステムを構築するために使われる。
従来の研究では、分散したパターンに基づいてノイズの多いサンプルを識別することで、これを緩和しようと試みてきた。
大規模言語モデル強化型ハードサンプルデノゲーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-16T14:57:09Z) - Disentangled Noisy Correspondence Learning [56.06801962154915]
クロスモーダル検索は、モダリティ間の潜在対応を理解する上で重要である。
DisNCLはノイズ対応学習における特徴分散のための新しい情報理論フレームワークである。
論文 参考訳(メタデータ) (2024-08-10T09:49:55Z) - ROPO: Robust Preference Optimization for Large Language Models [59.10763211091664]
外部モデルの助けを借りずにノイズ耐性とノイズサンプルのフィルタリングを統合する反復アライメント手法を提案する。
Mistral-7BとLlama-2-7Bで広く使われている3つのデータセットの実験では、ROPOが既存の嗜好アライメント法を大幅に上回っていることが示されている。
論文 参考訳(メタデータ) (2024-04-05T13:58:51Z) - PLReMix: Combating Noisy Labels with Pseudo-Label Relaxed Contrastive Representation Learning [7.556169113399857]
Pseudo-Label Relaxed (PLR) のコントラスト損失を導入することで、エンドツーエンドの textbfPLReMix フレームワークを提案する。
提案したPLR損失はプラガブルであり,他のLNL手法に統合し,その性能改善を観察した。
論文 参考訳(メタデータ) (2024-02-27T15:22:20Z) - Noisy Pair Corrector for Dense Retrieval [59.312376423104055]
ノイズペアコレクタ(NPC)と呼ばれる新しい手法を提案する。
NPCは検出モジュールと修正モジュールから構成される。
我々は,テキスト検索ベンチマークのNatural QuestionとTriviaQA,コード検索ベンチマークのStaQCとSO-DSで実験を行った。
論文 参考訳(メタデータ) (2023-11-07T08:27:14Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。