論文の概要: Semantics-Aware Denoising: A PLM-Guided Sample Reweighting Strategy for Robust Recommendation
- arxiv url: http://arxiv.org/abs/2602.15359v1
- Date: Tue, 17 Feb 2026 04:58:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.983976
- Title: Semantics-Aware Denoising: A PLM-Guided Sample Reweighting Strategy for Robust Recommendation
- Title(参考訳): セマンティックス・アウェア・デノーミング:ロバストレコメンデーションのためのPLM誘導サンプルリウェイト戦略
- Authors: Xikai Yang, Yang Wang, Yilin Li, Sebastian Sun,
- Abstract要約: ユーザクリックのような暗黙のフィードバックは、現代のレコメンデータシステムの主要なデータソースとして機能する。
本稿では,ユーザの関心事とアイテムコンテンツ間のセマンティックな一貫性を活用して,潜在的ノイズのあるインタラクションを識別し,ダウンウェイトするSAID(Semantics-Aware Implicit Denoising)を提案する。
2つの実世界のデータセットの実験は、SAIDが強いベースラインよりもAUCの2.2%の相対的な改善を達成し、リコメンデーションパフォーマンスを継続的に改善することを示した。
- 参考スコア(独自算出の注目度): 4.631922211808715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit feedback, such as user clicks, serves as the primary data source for modern recommender systems. However, click interactions inherently contain substantial noise, including accidental clicks, clickbait-induced interactions, and exploratory browsing behaviors that do not reflect genuine user preferences. Training recommendation models with such noisy positive samples leads to degraded prediction accuracy and unreliable recommendations. In this paper, we propose SAID (Semantics-Aware Implicit Denoising), a simple yet effective framework that leverages semantic consistency between user interests and item content to identify and downweight potentially noisy interactions. Our approach constructs textual user interest profiles from historical behaviors and computes semantic similarity with target item descriptions using pre-trained language model (PLM) based text encoders. The similarity scores are then transformed into sample weights that modulate the training loss, effectively reducing the impact of semantically inconsistent clicks. Unlike existing denoising methods that require complex auxiliary networks or multi-stage training procedures, SAID only modifies the loss function while keeping the backbone recommendation model unchanged. Extensive experiments on two real-world datasets demonstrate that SAID consistently improves recommendation performance, achieving up to 2.2% relative improvement in AUC over strong baselines, with particularly notable robustness under high noise conditions.
- Abstract(参考訳): ユーザクリックのような暗黙のフィードバックは、現代のレコメンデータシステムの主要なデータソースとして機能する。
しかし、クリックベイトによって引き起こされるインタラクションや、真のユーザの好みを反映しない探索的なブラウジング行動など、クリック操作には本質的に大きなノイズが含まれている。
このようなノイズのある正のサンプルを用いたトレーニングレコメンデーションモデルは、劣化予測精度と信頼性の低いレコメンデーションをもたらす。
本稿では,ユーザの関心事とアイテムコンテンツ間のセマンティックな一貫性を利用して,潜在的にノイズの多いインタラクションを識別し,ダウンウェイトする,シンプルかつ効果的なフレームワークであるSAIDを提案する。
提案手法は,過去の行動からテキストユーザの興味プロファイルを構築し,PLMベースのテキストエンコーダを用いて,対象項目記述と意味的類似性を計算する。
類似度スコアは、トレーニング損失を変調するサンプルウェイトに変換され、意味的に一貫性のないクリックの影響を効果的に低減する。
複雑な補助的ネットワークや多段階の訓練手順を必要とする既存の分極法とは異なり、SAIDはバックボーンレコメンデーションモデルを維持しながら損失関数を変更するのみである。
2つの実世界のデータセットに対する大規模な実験により、SAIDはリコメンデーション性能を継続的に改善し、強いベースラインよりもAUCの2.2%の相対的な改善を実現している。
関連論文リスト
- From Entity Reliability to Clean Feedback: An Entity-Aware Denoising Framework Beyond Interaction-Level Signals [20.323837731778358]
暗黙のフィードバックはレコメンデーションシステムの中心であるが、本質的にノイズがあり、しばしばモデルのトレーニングやユーザエクスペリエンスの劣化を損なう。
textbfEARD(textbfEntity-textbfAware textbfReliability-textbfDriven Denoising)は,インタラクションレベルの信号からエンティティレベルの信頼性に移行する軽量フレームワークである。
論文 参考訳(メタデータ) (2025-08-14T17:20:12Z) - Shapley Value-driven Data Pruning for Recommender Systems [6.170723867840994]
共有価値駆動評価(Shapley Value-Driven Valuation, SVV)は、モデルトレーニングに対する客観的な影響に基づいてインタラクションを評価するフレームワークである。
SVVは、高い値との相互作用を強調しながら、低い値を下書きし、レコメンダシステムに効果的なデータプルーニングを実現する。
4つの実世界のデータセットでの実験では、SVVは精度とロバスト性の両方で既存のデノナイジング手法よりも優れていた。
論文 参考訳(メタデータ) (2025-05-28T07:27:59Z) - Reinforced Interactive Continual Learning via Real-time Noisy Human Feedback [59.768119380109084]
本稿では,AIモデルがリアルタイムフィードバックから新たなスキルを動的に学習する対話型連続学習パラダイムを提案する。
大規模言語モデル(LLM)を活用した強化型対話型連続学習フレームワークRiCLを提案する。
我々のRiCLアプローチは、最先端のオンライン連続学習とノイズラベル学習の既存の組み合わせを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-15T03:22:03Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - SRA-CL: Semantic Retrieval Augmented Contrastive Learning for Sequential Recommendation [23.050104678143935]
SRA-CL(Semantic Retrieval Augmented Contrastive Learning)という新しい手法を提案する。
SRA-CLはLLMのセマンティック理解と推論機能を活用し、ユーザの好みやアイテムの特徴をキャプチャする表現的な埋め込みを生成する。
SRA-CLはプラグイン・アンド・プレイの設計を採用しており、既存のシーケンシャルレコメンデーションアーキテクチャとシームレスに統合できる。
論文 参考訳(メタデータ) (2025-03-06T07:25:19Z) - Large Language Model Enhanced Hard Sample Identification for Denoising Recommendation [4.297249011611168]
暗黙のフィードバックは、しばしばレコメンデーションシステムを構築するために使われる。
従来の研究では、分散したパターンに基づいてノイズの多いサンプルを識別することで、これを緩和しようと試みてきた。
大規模言語モデル強化型ハードサンプルデノゲーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-16T14:57:09Z) - Disentangled Noisy Correspondence Learning [56.06801962154915]
クロスモーダル検索は、モダリティ間の潜在対応を理解する上で重要である。
DisNCLはノイズ対応学習における特徴分散のための新しい情報理論フレームワークである。
論文 参考訳(メタデータ) (2024-08-10T09:49:55Z) - ROPO: Robust Preference Optimization for Large Language Models [59.10763211091664]
外部モデルの助けを借りずにノイズ耐性とノイズサンプルのフィルタリングを統合する反復アライメント手法を提案する。
Mistral-7BとLlama-2-7Bで広く使われている3つのデータセットの実験では、ROPOが既存の嗜好アライメント法を大幅に上回っていることが示されている。
論文 参考訳(メタデータ) (2024-04-05T13:58:51Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Noisy Pair Corrector for Dense Retrieval [59.312376423104055]
ノイズペアコレクタ(NPC)と呼ばれる新しい手法を提案する。
NPCは検出モジュールと修正モジュールから構成される。
我々は,テキスト検索ベンチマークのNatural QuestionとTriviaQA,コード検索ベンチマークのStaQCとSO-DSで実験を行った。
論文 参考訳(メタデータ) (2023-11-07T08:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。