論文の概要: CrossDenoise: Denoising Implicit Feedback via a Lightweight Entity-Aware Synergistic Framework
- arxiv url: http://arxiv.org/abs/2508.10851v1
- Date: Thu, 14 Aug 2025 17:20:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.428389
- Title: CrossDenoise: Denoising Implicit Feedback via a Lightweight Entity-Aware Synergistic Framework
- Title(参考訳): CrossDenoise: 軽量Entity-Aware Synergistic Frameworkを通じて、暗黙のフィードバックを通知する
- Authors: Ze Liu, Xianquan Wang, Shuochen Liu, Jie Ma, Huibo Xu, Yupeng Han, Zhe Yang, Kai Zhang, Longfei Li, Jun Zhou,
- Abstract要約: CrossDenoiseは、ノイズ推定をユーザ、アイテム、インタラクション固有の要因に分離する新しいフレームワークである。
ML-1M、Yelp、Amazon-bookデータセットの実験において、最先端のベースラインを一貫して大幅に上回る。
- 参考スコア(独自算出の注目度): 24.783865057734058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems heavily rely on implicit feedback, which is inherently noisy due to false positives and negatives, severely degrading recommendation accuracy. Existing denoising strategies often overlook entity-aware modeling, suffer from high computational overhead, or demand excessive hyperparameter tuning, limiting their real-world applicability. We propose CrossDenoise, a novel and lightweight framework that addresses these challenges by disentangling noise estimation into user-, item-, and interaction-specific factors. Leveraging empirical observations that show significant heterogeneity in user and item noise propensities, CrossDenoise computes entity reputation factors (user/item reliability) via a rank-based linear mapping of average training losses. These are fused with interaction-level weights derived from an empirical cumulative distribution function (ECDF) of individual losses. This design is model-agnostic, computationally efficient, and requires only two intuitive hyperparameters. Extensive experiments on ML-1M, Yelp, and Amazon-book datasets, across GMF, NeuMF, and CDAE backbones, demonstrate that CrossDenoise consistently and significantly outperforms state-of-the-art baselines. For instance, it achieves up to 27.01% NDCG@50 gain on Yelp with NeuMF, while incurring negligible computational and memory overhead. Our analysis confirms that CrossDenoise effectively separates clean from noisy samples and remains robust under varied hyperparameter settings. It offers a practical and scalable solution for denoising implicit feedback.
- Abstract(参考訳): リコメンダーシステムは暗黙のフィードバックに強く依存しており、これは本質的には偽陽性と否定のためうるさく、推奨精度を著しく低下させる。
既存のデノイング戦略は、エンティティ・アウェア・モデリングを見落としたり、高い計算オーバーヘッドに悩まされたり、過度なハイパーパラメータチューニングを要求したりし、現実の応用性を制限することも多い。
そこで我々は,これらの課題に対処する新しい軽量なフレームワークであるCrossDenoiseを提案する。
CrossDenoiseは、ユーザとアイテムのノイズの不均一性を示す経験的観察を活用することで、平均的なトレーニング損失のランクベースの線形マッピングを通じて、エンティティ評価要因(ユーザ/イテムの信頼性)を計算する。
これらは、個々の損失の経験的累積分布関数(ECDF)に由来する相互作用レベル重みと融合する。
この設計は、モデルに依存しず、計算的に効率的であり、2つの直感的なハイパーパラメータしか必要としない。
GMF、NeuMF、CDAEのバックボーンにわたるML-1M、Yelp、Amazon-bookデータセットに関する大規模な実験は、CrossDenoiseが一貫して、最先端のベースラインを大幅に上回ることを示した。
たとえば、NeuMFでYelpで最大27.01%のNDCG@50ゲインを達成し、無視可能な計算とメモリオーバーヘッドを発生させる。
分析の結果、CrossDenoiseはノイズの多いサンプルから効果的に分離し、様々なハイパーパラメータ設定下で頑健であることが確認された。
暗黙のフィードバックを認知するための実用的でスケーラブルなソリューションを提供する。
関連論文リスト
- Machine Unlearning for Robust DNNs: Attribution-Guided Partitioning and Neuron Pruning in Noisy Environments [5.8166742412657895]
ディープニューラルネットワーク(DNN)は、さまざまなドメインで顕著な成功を収めているが、ノイズやトレーニングデータによってそのパフォーマンスが著しく低下する可能性がある。
本稿では,帰属誘導型データパーティショニング,識別的ニューロンプルーニング,およびノイズのあるサンプルの影響を軽減するための微調整を目的とした新しいフレームワークを提案する。
CIFAR-10の標準リトレーニングよりも約10%の絶対精度向上を実現し,ラベルノイズを注入した。
論文 参考訳(メタデータ) (2025-06-13T09:37:11Z) - Noise Augmented Fine Tuning for Mitigating Hallucinations in Large Language Models [1.0579965347526206]
大規模言語モデル(LLM)は、しばしば不正確な、または誤解を招くコンテンツ・ハロシンを生成する。
noise-Augmented Fine-Tuning (NoiseFiT) は適応ノイズ注入を利用してモデルロバスト性を高める新しいフレームワークである。
NoiseFiTは、動的にスケールしたガウス雑音を用いて、高SNR(より堅牢)または低SNR(潜在的に過正規化)と同定された層を選択的に摂動する。
論文 参考訳(メタデータ) (2025-04-04T09:27:19Z) - Personalized Denoising Implicit Feedback for Robust Recommender System [60.719158008403376]
ユーザの個人的損失分布には,正常なインタラクションとノイズの多いインタラクションが明確に区別されていることを示す。
本稿では,ユーザのパーソナライズロス分布であるPLDを用いてDenoiseに対する再サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2025-02-01T07:13:06Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - FedA3I: Annotation Quality-Aware Aggregation for Federated Medical Image
Segmentation against Heterogeneous Annotation Noise [10.417576145123256]
フェデレートラーニング(FL)は、分散医療データに基づいてセグメンテーションモデルをトレーニングするための有望なパラダイムとして登場した。
本稿では,この問題を初めて特定し,対処する。
2つの実世界の医療画像セグメンテーションデータセットの実験は、最先端のアプローチに対するFedA$3$Iの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-12-20T08:42:57Z) - Negative Pre-aware for Noisy Cross-modal Matching [46.5591267410225]
雑音対応は認識と修正が難しいため,クロスモーダルノイズロバスト学習は難しい課題である。
本稿では,雑音の多い下流タスクに対する大規模視覚言語モデルファインタニングのための,否定的事前認識型クロスモーダルマッチングソリューションを提案する。
論文 参考訳(メタデータ) (2023-12-10T05:52:36Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。