論文の概要: Hybrid Contrastive Constraints for Multi-Scenario Ad Ranking
- arxiv url: http://arxiv.org/abs/2302.02636v1
- Date: Mon, 6 Feb 2023 09:15:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 17:14:25.258076
- Title: Hybrid Contrastive Constraints for Multi-Scenario Ad Ranking
- Title(参考訳): マルチスセナリオ広告ランキングのためのハイブリッドコントラスト制約
- Authors: Shanlei Mu, Penghui Wei, Wayne Xin Zhao, Shaoguo Liu, Liang Wang, Bo
Zheng
- Abstract要約: マルチシナリオ広告ランキングは、複数のドメインやチャネルからのデータを活用して、統一されたランキングモデルをトレーニングすることを目的としている。
マルチシナリオ広告ランキングのためのHybrid Contrastive Constrained Approach (HC2)を提案する。
- 参考スコア(独自算出の注目度): 38.666592866591344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-scenario ad ranking aims at leveraging the data from multiple domains
or channels for training a unified ranking model to improve the performance at
each individual scenario. Although the research on this task has made important
progress, it still lacks the consideration of cross-scenario relations, thus
leading to limitation in learning capability and difficulty in interrelation
modeling. In this paper, we propose a Hybrid Contrastive Constrained approach
(HC^2) for multi-scenario ad ranking. To enhance the modeling of data
interrelation, we elaborately design a hybrid contrastive learning approach to
capture commonalities and differences among multiple scenarios. The core of our
approach consists of two elaborated contrastive losses, namely generalized and
individual contrastive loss, which aim at capturing common knowledge and
scenario-specific knowledge, respectively. To adapt contrastive learning to the
complex multi-scenario setting, we propose a series of important improvements.
For generalized contrastive loss, we enhance contrastive learning by extending
the contrastive samples (label-aware and diffusion noise enhanced contrastive
samples) and reweighting the contrastive samples (reciprocal similarity
weighting). For individual contrastive loss, we use the strategies of
dropout-based augmentation and {cross-scenario encoding} for generating
meaningful positive and negative contrastive samples, respectively. Extensive
experiments on both offline evaluation and online test have demonstrated the
effectiveness of the proposed HC$^2$ by comparing it with a number of
competitive baselines.
- Abstract(参考訳): multi-scenario ad rankingは、複数のドメインやチャネルからのデータを活用して、統一されたランキングモデルをトレーニングすることで、個々のシナリオのパフォーマンスを改善することを目的としている。
この課題の研究は重要な進展を遂げているが、それでもクロスシナリオ関係の考慮が欠如しており、学習能力の制限と相互関係モデリングの難しさにつながっている。
本稿では,マルチシナリオ広告ランキングのためのHybrid Contrastive Constrained Approach (HC^2)を提案する。
データ相互関係のモデリングを強化するために,複数のシナリオ間の共通性と差異を捉えるためのハイブリッドコントラスト学習手法を精巧に設計した。
提案手法のコアとなるのは,共通知識とシナリオ固有の知識の獲得を目的とした,総合的および個人的コントラスト的損失の2つである。
複雑なマルチシナリオ設定にコントラスト学習を適用するため、我々は、一連の重要な改善を提案する。
コントラスト損失を一般化するために,コントラストサンプル(ラベル認識と拡散雑音強調コントラストサンプル)を拡張し,コントラストサンプル(相互類似度重み付け)を重み付けすることでコントラスト学習を強化する。
個別のコントラスト損失には, それぞれ有意な正および負のコントラストサンプルを生成するために, ドロップアウトに基づく拡張戦略と, クロスシナリオ符号化を用いる。
オフライン評価とオンラインテストの両方における大規模な実験により,提案したHC$^2$の有効性が実証された。
関連論文リスト
- Multi-level Supervised Contrastive Learning [24.738777704387715]
マルチレベルコントラスト学習(MLCL)と呼ばれる統合フレームワークにおける新しい教師付きコントラスト学習手法を提案する。
提案手法の主な強みは,複数のプロジェクションヘッドを用いて異なるラベルおよび/または階層にまたがるサンプル間の類似性を捉える能力である。
テキストと画像データセットの大規模な実験により、提案手法が最先端のコントラスト学習法より優れていることが示された。
論文 参考訳(メタデータ) (2025-02-04T10:27:54Z) - Relation-Guided Adversarial Learning for Data-free Knowledge Transfer [9.069156418033174]
本稿では,三重項損失を考慮したリレーショナルガイド型逆学習手法を提案する。
本手法は,生成標本のクラス内多様性とクラス間混同を促進することを目的としている。
RGALは従来の最先端手法に比べて精度とデータ効率が大幅に向上した。
論文 参考訳(メタデータ) (2024-12-16T02:11:02Z) - Ensemble Adversarial Defense via Integration of Multiple Dispersed Low Curvature Models [7.8245455684263545]
本研究では,攻撃伝達性を低減し,アンサンブルの多様性を高めることを目的とする。
損失曲率を表す2階勾配を, 対向的強靭性の重要な要因として同定する。
本稿では,複数変数の低曲率ネットワークモデルをトレーニングするための新しい正規化器を提案する。
論文 参考訳(メタデータ) (2024-03-25T03:44:36Z) - Advancing Relation Extraction through Language Probing with Exemplars
from Set Co-Expansion [1.450405446885067]
関係抽出(RE)は、構造化されていないテキストから構造化情報を自動的に抽出する重要なタスクである。
代表例を統合し,コセット展開を通じて多面的アプローチを提案する。
提案手法は,ほとんどの設定において,少なくとも1%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-08-18T00:56:35Z) - Rethinking Prototypical Contrastive Learning through Alignment,
Uniformity and Correlation [24.794022951873156]
我々は、アライメント、均一性、相関(PAUC)を通して、プロトタイプ表現を学ぶことを提案する。
具体的には,(1)正の原型から埋め込みを抽出するアライメント損失,(2)原型レベルの特徴を均一に分配するアライメント損失,(3)原型レベルの特徴間の多様性と識別性を増大させる相関損失を補正する。
論文 参考訳(メタデータ) (2022-10-18T22:33:12Z) - Contrastive Principal Component Learning: Modeling Similarity by
Augmentation Overlap [50.48888534815361]
コントラシブ・プリンシパル・コンポーネント・ラーニング(CPCL)手法を提案する。
CPCLにより、学習された低次元埋め込みは、標本間の増大分布の類似性を理論的に保存する。
論文 参考訳(メタデータ) (2022-06-01T13:03:58Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。