論文の概要: One Model to Serve All: Star Topology Adaptive Recommender for
Multi-Domain CTR Prediction
- arxiv url: http://arxiv.org/abs/2101.11427v1
- Date: Wed, 27 Jan 2021 14:17:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 22:43:53.244659
- Title: One Model to Serve All: Star Topology Adaptive Recommender for
Multi-Domain CTR Prediction
- Title(参考訳): オールサーブモデル:マルチドメインCTR予測のためのスタートポロジ適応レコメンダ
- Authors: Xiang-Rong Sheng, Liqin Zhao, Guorui Zhou, Xinyao Ding, Binding Dai,
Qiang Luo, Siran Yang, Jingshan Lv, Chi Zhang, Xiaoqiang Zhu
- Abstract要約: 大規模な商用プラットフォームでは、複数のビジネスドメインに対してクリックスルー率(CTR)の予測を行う必要がある場合が多い。
スタートポロジアダプティブレコメンダー(STAR)では、1つのモデルがすべてのドメインに効果的に役立つように学習されます。
- 参考スコア(独自算出の注目度): 11.804468772356866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional industrial recommenders are usually trained on a single business
domain and then serve for this domain. In large commercial platforms, however,
it is often the case that the recommenders need to make click-through rate
(CTR) predictions for multiple business domains. Different domains have
overlapping user groups and items, thus exist commonalities. Since the specific
user group may be different and the user behaviors may change within a specific
domain, different domains also have distinctions. The distinctions result in
different domain-specific data distributions, which makes it hard for a single
shared model to work well on all domains. To address the problem, we present
Star Topology Adaptive Recommender (STAR), where one model is learned to serve
all domains effectively. Concretely, STAR has the star topology, which consists
of the shared centered parameters and domain-specific parameters. The shared
parameters are used to learn commonalities of all domains and the
domain-specific parameters capture domain distinction for more refined
prediction. Given requests from different domains, STAR can adapt its
parameters conditioned on the domain. The experimental result from production
data validates the superiority of the proposed STAR model. Up to now, STAR has
been deployed in the display advertising system of Alibaba, obtaining averaging
8.0% improvement on CTR and 6.0% on RPM (Revenue Per Mille).
- Abstract(参考訳): 伝統的な産業レコメンダは通常、単一のビジネスドメインでトレーニングされ、そのドメインで機能する。
しかし、大規模な商用プラットフォームでは、複数のビジネスドメインに対してクリックスルー率(CTR)の予測を行う必要がある場合が多い。
異なるドメインには重複するユーザグループとアイテムがあり、そのため共通点が存在する。
特定のユーザグループが異なる可能性があり、ユーザ動作が特定のドメイン内で変化する可能性があるため、異なるドメインも区別できる。
この区別は、異なるドメイン固有のデータ分散をもたらすため、単一の共有モデルがすべてのドメインでうまく機能することが難しくなる。
そこで、スタートポロジー・アダプティブ・レコメンダー(Star Topology Adaptive Recommender、スター・トポロジー・アダプティブ・レコメンダー)は、1つのモデルがすべてのドメインに効果的に役立つように学習される。
具体的には、STARは、共有中心のパラメータとドメイン固有のパラメータからなるスタートポロジーを持っています。
共有パラメータは、すべてのドメインの共通性を学習するために使用され、ドメイン固有のパラメータは、より洗練された予測のためにドメインの区別をキャプチャする。
異なるドメインからの要求に応じて、STARはドメインで条件付きパラメータを適応させることができます。
生産データから得られた実験結果は,提案したSTARモデルの優越性を検証した。
これまで、STARはAlibabaのディスプレイ広告システムに展開されており、CTRの8.0%、RPMの6.0%の平均改善(Revenue Per Mille)を得ています。
関連論文リスト
- Virtual Classification: Modulating Domain-Specific Knowledge for
Multidomain Crowd Counting [67.38137379297717]
マルチドメインのクラウドカウントは、複数の多様なデータセットの一般的なモデルを学ぶことを目的としている。
ディープネットワークは、ドメインバイアスとして知られるすべてのドメインではなく、支配的なドメインの分布をモデル化することを好む。
マルチドメイン群カウントにおけるドメインバイアス問題を処理するために,MDKNet(Modulating Domain-specific Knowledge Network)を提案する。
論文 参考訳(メタデータ) (2024-02-06T06:49:04Z) - Mixed Attention Network for Cross-domain Sequential Recommendation [63.983590953727386]
ドメイン固有・クロスドメイン情報を抽出するために,ローカル・グローバル・アテンション・モジュールを用いた混在注意ネットワーク(MAN)を提案する。
2つの実世界のデータセットに対する実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2023-11-14T16:07:16Z) - A Collaborative Transfer Learning Framework for Cross-domain
Recommendation [12.880177078884927]
推薦システムには、ユーザの多様な関心やニーズを満たすための複数のビジネスドメインが存在する。
本稿では,これらの課題を克服するために,協調的クロスドメイン・トランスファー学習フレームワーク(CCTL)を提案する。
CCTLは、対称コンパニオンネットワークを用いて、ターゲットドメイン上のソースドメインの情報ゲインを評価する。
論文 参考訳(メタデータ) (2023-06-26T09:43:58Z) - Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization [9.577254317971933]
ドメイン変種には、下流のタスクに有用な情報、すなわち分類対応情報も含まれている、と我々は主張する。
本稿では,ドメインエキスパートの特徴をソース・ドメイン・イメージから切り離すために,DDN(Domain Disentanglement Network)と呼ばれる新しいパラダイムを提案する。
また、ドメインの専門家がよりバランスよく分離可能な機能空間を形成するための、新しい対照的な学習方法を提案します。
論文 参考訳(メタデータ) (2023-02-05T09:48:57Z) - One Model for All Domains: Collaborative Domain-Prefix Tuning for
Cross-Domain NER [92.79085995361098]
クロスドメインNERは、実践シナリオにおける低リソースの問題に対処する上で難しいタスクである。
事前学習言語モデル(PLM)によるNERモデルと、リッチリソースドメインのデータとを主に取得し、ターゲットドメインに適応させる。
テキストからテキストへの生成 PLM に基づくクロスドメイン NER のための協調的ドメイン修正チューニングを提案する。
論文 参考訳(メタデータ) (2023-01-25T05:16:43Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - Domain Consistency Regularization for Unsupervised Multi-source Domain
Adaptive Classification [57.92800886719651]
近年,深層学習に基づくマルチソース非教師付きドメイン適応(MUDA)が活発に研究されている。
MUDAのドメインシフトは、ソースドメインとターゲットドメインの間だけでなく、複数のソースドメインの間にも存在します。
本稿では、教師なしマルチソースドメイン適応分類において、ドメインの一貫性規則化を利用するエンドツーエンドのトレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T07:29:27Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Multi-Domain Spoken Language Understanding Using Domain- and Task-Aware
Parameterization [78.93669377251396]
音声言語理解は、各ドメインでトレーニングデータのセットが利用できる教師付き学習問題として対処されてきた。
既存の1つのアプローチは、ドメイン間の共同トレーニングに共有パラメータを使用して、マルチドメイン学習を行うことによって、この問題を解決する。
本稿では,ドメイン固有モデルパラメータとタスク固有モデルパラメータを用いて,この手法のパラメータ化を改善することを提案する。
論文 参考訳(メタデータ) (2020-04-30T15:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。