論文の概要: Learning Classifiers under Delayed Feedback with a Time Window
Assumption
- arxiv url: http://arxiv.org/abs/2009.13092v2
- Date: Fri, 10 Jun 2022 05:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 21:33:28.849347
- Title: Learning Classifiers under Delayed Feedback with a Time Window
Assumption
- Title(参考訳): 時間窓仮定による遅延フィードバックによる学習分類器
- Authors: Masahiro Kato and Shota Yasui
- Abstract要約: 遅延フィードバック(emphDF学習)下でのバイナリ分類器の訓練の検討
最初は陰性なサンプルを受け取り、その後、いくつかのサンプルは正に変化する。
遅延したフィードバックのため、正と負のサンプルのナイーブな分類はバイアス付き分類器を返す。
- 参考スコア(独自算出の注目度): 16.269923100433235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider training a binary classifier under delayed feedback (\emph{DF
learning}). For example, in the conversion prediction in online ads, we
initially receive negative samples that clicked the ads but did not buy an
item; subsequently, some samples among them buy an item then change to
positive. In the setting of DF learning, we observe samples over time, then
learn a classifier at some point. We initially receive negative samples;
subsequently, some samples among them change to positive. This problem is
conceivable in various real-world applications such as online advertisements,
where the user action takes place long after the first click. Owing to the
delayed feedback, naive classification of the positive and negative samples
returns a biased classifier. One solution is to use samples that have been
observed for more than a certain time window assuming these samples are
correctly labeled. However, existing studies reported that simply using a
subset of all samples based on the time window assumption does not perform
well, and that using all samples along with the time window assumption improves
empirical performance. We extend these existing studies and propose a method
with the unbiased and convex empirical risk that is constructed from all
samples under the time window assumption. To demonstrate the soundness of the
proposed method, we provide experimental results on a synthetic and open
dataset that is the real traffic log datasets in online advertising.
- Abstract(参考訳): 遅延フィードバック下でバイナリ分類子をトレーニングすることを検討する(\emph{df learning})。
例えば、オンライン広告の変換予測では、最初は広告をクリックしてアイテムを購入しなかった負のサンプルを受け取りました。
DF学習の設定では、時間とともにサンプルを観察し、ある時点で分類器を学習する。
最初は負のサンプルを受け取り、その後、いくつかのサンプルは正に変化する。
この問題は、オンライン広告のような、最初のクリックのずっと後にユーザーアクションが実行される様々な現実世界のアプリケーションで考えられる。
遅延フィードバックのため、正と負のサンプルのナイーブな分類はバイアス付き分類器を返す。
一つの解決策は、これらのサンプルが正しくラベル付けされていると仮定して、一定の時間以上観察されたサンプルを使用することである。
しかし、既存の研究では、タイムウィンドウの仮定に基づいてすべてのサンプルのサブセットを使用するだけではうまく動作せず、タイムウィンドウの仮定とともにすべてのサンプルを使用すると経験的パフォーマンスが向上する、と報告されている。
我々は,これらの既存研究を拡張し,タイムウインドウ仮定下で全サンプルから構築した非バイアス・凸経験的リスクを用いた手法を提案する。
提案手法の健全性を示すために,オンライン広告における実際のトラヒックログデータセットである合成およびオープンデータセットについて実験結果を提供する。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Which Pretrain Samples to Rehearse when Finetuning Pretrained Models? [60.59376487151964]
特定のタスクに関する微調整済みモデルが、テキストとビジョンタスクの事実上のアプローチになった。
このアプローチの落とし穴は、微調整中に起こる事前学習の知識を忘れることである。
本研究では,実際に忘れられているサンプルを識別・優先順位付けする新しいサンプリング手法であるmix-cdを提案する。
論文 参考訳(メタデータ) (2024-02-12T22:32:12Z) - Better Sampling of Negatives for Distantly Supervised Named Entity
Recognition [39.264878763160766]
本稿では, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正
提案手法は,4つの遠隔教師付きNERデータセットに対して一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2023-05-22T15:35:39Z) - Test-Time Distribution Normalization for Contrastively Learned
Vision-language Models [39.66329310098645]
CLIPとして最近提案された最も代表的なアプローチの1つは、その有効性のために広く採用されている。
本稿では,ドット製品のダウンストリーム化は最適化目標の0次近似に過ぎず,テスト時間中に情報が失われることを明らかにする。
本研究では, 分散正規化(DN)を提案し, テストサンプルのバッチの平均表現を近似し, InfoNCE損失における負のサンプルと類似するものを表現する。
論文 参考訳(メタデータ) (2023-02-22T01:14:30Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - Asymptotically Unbiased Estimation for Delayed Feedback Modeling via
Label Correction [14.462884375151045]
遅延したフィードバックは、オンライン広告の変換率予測に不可欠である。
これまでの遅延したフィードバックモデリング手法は、正確なラベルを待ち、新鮮なフィードバックを消費する間のトレードオフのバランスをとる。
提案手法は, 即効性, 偽陰性, 実陰性, 遅延正サンプルの重み付けをそれぞれ補正することを目的として, 非バイアス推定を用いた遅延フィードバックモデリング(DEFUSE)を提案する。
論文 参考訳(メタデータ) (2022-02-14T03:31:09Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Sampler Design for Implicit Feedback Data by Noisy-label Robust Learning [32.76804332450971]
暗黙的なフィードバックデータに対する雑音ラベルの頑健な学習に基づく適応型サンプリング器を設計する。
モデルを用いてユーザの好みを予測し、観測されたデータラベルの可能性を最大化して学習する。
次に、これらのノイズラベルのリスクを検討し、ノイズラベルのRobust BPOを提案する。
論文 参考訳(メタデータ) (2020-06-28T05:31:53Z) - A Feedback Shift Correction in Predicting Conversion Rates under Delayed
Feedback [6.38500614968955]
ディスプレイ広告では、広告を表示する価値を推定するために、変換率を予測することが不可欠である。
クリックと結果の変換の間には、比較的長い時間がかかる。
遅延したフィードバックのため、トレーニング期間中の肯定的なインスタンスには負のラベルが付けられている。
論文 参考訳(メタデータ) (2020-02-06T02:05:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。