論文の概要: Hybrid Contrastive Constraints for Multi-Scenario Ad Ranking
- arxiv url: http://arxiv.org/abs/2302.02636v1
- Date: Mon, 6 Feb 2023 09:15:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 17:14:25.258076
- Title: Hybrid Contrastive Constraints for Multi-Scenario Ad Ranking
- Title(参考訳): マルチスセナリオ広告ランキングのためのハイブリッドコントラスト制約
- Authors: Shanlei Mu, Penghui Wei, Wayne Xin Zhao, Shaoguo Liu, Liang Wang, Bo
Zheng
- Abstract要約: マルチシナリオ広告ランキングは、複数のドメインやチャネルからのデータを活用して、統一されたランキングモデルをトレーニングすることを目的としている。
マルチシナリオ広告ランキングのためのHybrid Contrastive Constrained Approach (HC2)を提案する。
- 参考スコア(独自算出の注目度): 38.666592866591344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-scenario ad ranking aims at leveraging the data from multiple domains
or channels for training a unified ranking model to improve the performance at
each individual scenario. Although the research on this task has made important
progress, it still lacks the consideration of cross-scenario relations, thus
leading to limitation in learning capability and difficulty in interrelation
modeling. In this paper, we propose a Hybrid Contrastive Constrained approach
(HC^2) for multi-scenario ad ranking. To enhance the modeling of data
interrelation, we elaborately design a hybrid contrastive learning approach to
capture commonalities and differences among multiple scenarios. The core of our
approach consists of two elaborated contrastive losses, namely generalized and
individual contrastive loss, which aim at capturing common knowledge and
scenario-specific knowledge, respectively. To adapt contrastive learning to the
complex multi-scenario setting, we propose a series of important improvements.
For generalized contrastive loss, we enhance contrastive learning by extending
the contrastive samples (label-aware and diffusion noise enhanced contrastive
samples) and reweighting the contrastive samples (reciprocal similarity
weighting). For individual contrastive loss, we use the strategies of
dropout-based augmentation and {cross-scenario encoding} for generating
meaningful positive and negative contrastive samples, respectively. Extensive
experiments on both offline evaluation and online test have demonstrated the
effectiveness of the proposed HC$^2$ by comparing it with a number of
competitive baselines.
- Abstract(参考訳): multi-scenario ad rankingは、複数のドメインやチャネルからのデータを活用して、統一されたランキングモデルをトレーニングすることで、個々のシナリオのパフォーマンスを改善することを目的としている。
この課題の研究は重要な進展を遂げているが、それでもクロスシナリオ関係の考慮が欠如しており、学習能力の制限と相互関係モデリングの難しさにつながっている。
本稿では,マルチシナリオ広告ランキングのためのHybrid Contrastive Constrained Approach (HC^2)を提案する。
データ相互関係のモデリングを強化するために,複数のシナリオ間の共通性と差異を捉えるためのハイブリッドコントラスト学習手法を精巧に設計した。
提案手法のコアとなるのは,共通知識とシナリオ固有の知識の獲得を目的とした,総合的および個人的コントラスト的損失の2つである。
複雑なマルチシナリオ設定にコントラスト学習を適用するため、我々は、一連の重要な改善を提案する。
コントラスト損失を一般化するために,コントラストサンプル(ラベル認識と拡散雑音強調コントラストサンプル)を拡張し,コントラストサンプル(相互類似度重み付け)を重み付けすることでコントラスト学習を強化する。
個別のコントラスト損失には, それぞれ有意な正および負のコントラストサンプルを生成するために, ドロップアウトに基づく拡張戦略と, クロスシナリオ符号化を用いる。
オフライン評価とオンラインテストの両方における大規模な実験により,提案したHC$^2$の有効性が実証された。
関連論文リスト
- Relaxed Contrastive Learning for Federated Learning [53.48804883845343]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Mixup Your Own Pairs [22.882694278940598]
我々は、回帰に対する対照的な学習の可能性は、2つの重要な側面(常性認識と硬さ)を無視しているため、隠蔽されていると論じる。
具体的には,Mix(SupReMix)を用いた回帰学習における教師付きコントラスト学習を提案する。
アンカー・インクルージョン混合物(アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン混合物、アンカー・インクルージョン
論文 参考訳(メタデータ) (2023-09-28T17:38:59Z) - Advancing Relation Extraction through Language Probing with Exemplars
from Set Co-Expansion [1.450405446885067]
関係抽出(RE)は、構造化されていないテキストから構造化情報を自動的に抽出する重要なタスクである。
代表例を統合し,コセット展開を通じて多面的アプローチを提案する。
提案手法は,ほとんどの設定において,少なくとも1%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-08-18T00:56:35Z) - Rethinking Prototypical Contrastive Learning through Alignment,
Uniformity and Correlation [24.794022951873156]
我々は、アライメント、均一性、相関(PAUC)を通して、プロトタイプ表現を学ぶことを提案する。
具体的には,(1)正の原型から埋め込みを抽出するアライメント損失,(2)原型レベルの特徴を均一に分配するアライメント損失,(3)原型レベルの特徴間の多様性と識別性を増大させる相関損失を補正する。
論文 参考訳(メタデータ) (2022-10-18T22:33:12Z) - Contrastive Bayesian Analysis for Deep Metric Learning [30.21464199249958]
特徴的類似性によって条件付けられた画像ラベルの後方確率を特徴付け,モデル化するために,コントラッシブなベイズ解析を開発した。
この対照的なベイズ解析は、深い計量学習のための新しい損失関数をもたらす。
実験結果とアブレーション実験により,提案手法は深層学習の性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2022-10-10T02:24:21Z) - Contrastive Principal Component Learning: Modeling Similarity by
Augmentation Overlap [50.48888534815361]
コントラシブ・プリンシパル・コンポーネント・ラーニング(CPCL)手法を提案する。
CPCLにより、学習された低次元埋め込みは、標本間の増大分布の類似性を理論的に保存する。
論文 参考訳(メタデータ) (2022-06-01T13:03:58Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification [31.647639786095993]
画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
論文 参考訳(メタデータ) (2021-03-26T05:22:36Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。