論文の概要: Improved Personalized Headline Generation via Denoising Fake Interests from Implicit Feedback
- arxiv url: http://arxiv.org/abs/2508.07178v2
- Date: Thu, 14 Aug 2025 06:43:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 13:42:23.576915
- Title: Improved Personalized Headline Generation via Denoising Fake Interests from Implicit Feedback
- Title(参考訳): インシシットフィードバックによるフェイク関心の認知によるパーソナライズされた見出し生成の改善
- Authors: Kejin Liu, Junhong Lian, Xiang Ao, Ningtao Wang, Xing Fu, Yu Cheng, Weiqiang Wang, Xinyu Liu,
- Abstract要約: インシシットフィードバック(PHG-DIF)からフェイク関心を抽出するパーソナライズされた見出し生成フレームワークを提案する。
PHG-DIFは2段フィルタリングを用いて、短い居住時間と異常なクリックバーストによって識別されるクリックストリームノイズを効果的に除去する。
DT-PENSは、慎重にキュレートされた1,000人のユーザと、注釈付きパーソナライズされた1万近いパーソナライズされた見出しのクリック動作を含む、新しいベンチマークデータセットです。
- 参考スコア(独自算出の注目度): 50.365038320507686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate personalized headline generation hinges on precisely capturing user interests from historical behaviors. However, existing methods neglect personalized-irrelevant click noise in entire historical clickstreams, which may lead to hallucinated headlines that deviate from genuine user preferences. In this paper, we reveal the detrimental impact of click noise on personalized generation quality through rigorous analysis in both user and news dimensions. Based on these insights, we propose a novel Personalized Headline Generation framework via Denoising Fake Interests from Implicit Feedback (PHG-DIF). PHG-DIF first employs dual-stage filtering to effectively remove clickstream noise, identified by short dwell times and abnormal click bursts, and then leverages multi-level temporal fusion to dynamically model users' evolving and multi-faceted interests for precise profiling. Moreover, we release DT-PENS, a new benchmark dataset comprising the click behavior of 1,000 carefully curated users and nearly 10,000 annotated personalized headlines with historical dwell time annotations. Extensive experiments demonstrate that PHG-DIF substantially mitigates the adverse effects of click noise and significantly improves headline quality, achieving state-of-the-art (SOTA) results on DT-PENS. Our framework implementation and dataset are available at https://github.com/liukejin-up/PHG-DIF.
- Abstract(参考訳): 正確なパーソナライズされた見出し生成ヒンジは、過去の行動からユーザの興味を正確に捉えることを目的としている。
しかし、従来の手法では、履歴的なクリックストリーム全体においてパーソナライズされていないクリックノイズを無視しているため、真のユーザの好みから逸脱する幻覚的な見出しにつながる可能性がある。
本稿では,ユーザ次元とニュース次元の厳密な分析により,クリックノイズがパーソナライズされた生成品質に与える影響を明らかにする。
これらの知見に基づいて,インプリシットフィードバック(PHG-DIF)からフェイク関心を抽出するパーソナライズされた見出し生成フレームワークを提案する。
PHG-DIFは、まず2段階のフィルタリングを用いて、短い居住時間と異常なクリックバーストで識別されたクリックストリームノイズを効果的に除去し、その後、マルチレベル時間融合を利用してユーザの進化と多面的関心を動的にモデル化し、正確なプロファイリングを行う。
さらに,1,000人の慎重にキュレートされたユーザのクリック動作と,1万近い注釈付きパーソナライズされたパーソナライズされたヘッドラインと,過去のドウェルタイムアノテーションを含む新たなベンチマークデータセットであるDT-PENSをリリースする。
大規模な実験により、PHG-DIFはクリックノイズの悪影響を著しく軽減し、ヘッドライン品質を著しく改善し、DT-PENSに対してSOTA(State-of-the-art)結果が得られた。
フレームワークの実装とデータセットはhttps://github.com/liukejin-up/PHG-DIFで公開されています。
関連論文リスト
- iHHO-SMOTe: A Cleansed Approach for Handling Outliers and Reducing Noise to Improve Imbalanced Data Classification [0.0]
不均衡データセットの分類は、マシンラーニングにおいて依然として大きな課題である。
SMOTE(Synthetic Minority Over-Sampling Technique)は、表現不足のマイノリティクラスのための新しいインスタンスを生成する。
提案手法であるiHHO-SMOTeは,まずノイズ点からデータを浄化することにより,SMOTEの限界に対処する。
論文 参考訳(メタデータ) (2025-04-17T11:17:53Z) - Variational Bayesian Personalized Ranking [39.24591060825056]
変分的BPRは、確率最適化、ノイズ低減、人気低下を統合する、新しく実装が容易な学習目標である。
本稿では,問題サンプルからの雑音を効果的に低減するために,注目に基づく競合学習手法を提案する。
実験により、人気のあるバックボーンレコメンデーションモデルにおける変分BPRの有効性を実証する。
論文 参考訳(メタデータ) (2025-03-14T04:22:01Z) - Large Language Model Enhanced Hard Sample Identification for Denoising Recommendation [4.297249011611168]
暗黙のフィードバックは、しばしばレコメンデーションシステムを構築するために使われる。
従来の研究では、分散したパターンに基づいてノイズの多いサンプルを識別することで、これを緩和しようと試みてきた。
大規模言語モデル強化型ハードサンプルデノゲーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-16T14:57:09Z) - Impact of Preference Noise on the Alignment Performance of Generative Language Models [31.64856885517905]
2つのタスク(要約と対話生成)における好み雑音がアライメント性能に及ぼす影響について検討する。
その結果、アライメント性能は、優先データにおけるノイズ率に非常に敏感であることが判明した。
ノイズの影響を軽減するため、信頼度に基づくデータフィルタリングは特定のノイズが存在する場合に大きな利点を示す。
論文 参考訳(メタデータ) (2024-04-15T14:21:53Z) - Adaptive Differential Privacy in Federated Learning: A Priority-Based
Approach [0.0]
フェデレートラーニング(FL)は、ローカルデータセットに直接アクセスせずにグローバルモデルを開発する。
DPはパラメータに一定のノイズを加えることで、プライバシーを保証するフレームワークを提供する。
本稿では,特徴量の相対的重要度に基づいて入射雑音の値を決定するFLの適応雑音付加法を提案する。
論文 参考訳(メタデータ) (2024-01-04T03:01:15Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - On Dynamic Noise Influence in Differentially Private Learning [102.6791870228147]
Private Gradient Descent (PGD)は一般的に使用されるプライベート学習フレームワークであり、差分プロトコルに基づいてノイズを発生する。
最近の研究では、emphdynamic privacy schedulesは最終イテレーションで改善できるが、そのようなスケジュールの有効性の理論は限られている。
本稿では,これらの重要な質問に答えるために,動的プライバシスケジュールにおけるノイズの影響を総合的に分析する。
論文 参考訳(メタデータ) (2021-01-19T02:04:00Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。