論文の概要: Crocodile: Cross Experts Covariance for Disentangled Learning in Multi-Domain Recommendation
- arxiv url: http://arxiv.org/abs/2405.12706v2
- Date: Wed, 20 Nov 2024 09:35:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:09:18.893049
- Title: Crocodile: Cross Experts Covariance for Disentangled Learning in Multi-Domain Recommendation
- Title(参考訳): Crocodile: マルチドメインレコメンデーションにおける分散学習のためのクロスエキスパートの共分散
- Authors: Zhutian Lin, Junwei Pan, Haibin Yu, Xi Xiao, Ximei Wang, Zhixiang Feng, Shifeng Wen, Shudong Huang, Dapeng Liu, Lei Xiao,
- Abstract要約: 直交学習モデル(Crocodile)のためのクロスエキスパート共分散損失を提案する。
モデル内のほとんどのパラメータからなる埋め込みにおいて、モデルドメインを認識させるために、複数の埋め込みテーブルを使用する。
クロコダイルは主要な広告シナリオで0.72%のCTRリフトと0.73%のGMVリフトを達成する。
- 参考スコア(独自算出の注目度): 23.010588147317623
- License:
- Abstract: Multi-domain learning (MDL) has become a prominent topic in enhancing the quality of personalized services. It's critical to learn commonalities between domains and preserve the distinct characteristics of each domain. However, this leads to a challenging dilemma in MDL. On the one hand, a model needs to leverage domain-aware modules such as experts or embeddings to preserve each domain's distinctiveness. On the other hand, real-world datasets often exhibit long-tailed distributions across domains, where some domains may lack sufficient samples to effectively train their specific modules. Unfortunately, nearly all existing work falls short of resolving this dilemma. To this end, we propose a novel Cross-experts Covariance Loss for Disentangled Learning model (Crocodile), which employs multiple embedding tables to make the model domain-aware at the embeddings which consist most parameters in the model, and a covariance loss upon these embeddings to disentangle them, enabling the model to capture diverse user interests among domains. Empirical analysis demonstrates that our method successfully addresses both challenges and outperforms all state-of-the-art methods on public datasets. During online A/B testing in Tencent's advertising platform, Crocodile achieves 0.72% CTR lift and 0.73% GMV lift on a primary advertising scenario.
- Abstract(参考訳): マルチドメイン学習(MDL)は、パーソナライズされたサービスの品質向上において重要なトピックとなっている。
ドメイン間の共通点を学び、各ドメインの特徴を個別に保持することが重要です。
しかし、これはMDLの難しいジレンマに繋がる。
一方、モデルは各ドメインの特有性を維持するために、専門家や埋め込みのようなドメイン認識モジュールを活用する必要があります。
一方、現実世界のデータセットはドメイン間で長い尾の分布を示すことが多く、特定のモジュールを効果的に訓練するのに十分なサンプルが不足しているドメインもある。
残念ながら、既存の作業のほとんどは、このジレンマを解決するには不十分です。
そこで本研究では,モデル内のほとんどのパラメータからなる埋め込みにおいてモデルドメインを認識させるために,複数の埋め込みテーブルを利用するクロスエキスパート型非分散学習モデル(Crocodile)を提案する。
実証分析により,本手法は課題の解決に成功し,公開データセット上での最先端の手法よりも優れていることが示された。
Tencentの広告プラットフォームにおけるオンラインA/Bテスト中、Crocodileは主要な広告シナリオで0.72%のCTRリフトと0.73%のGMVリフトを達成した。
関連論文リスト
- Towards Federated Domain Unlearning: Verification Methodologies and Challenges [34.9987941096371]
フェデレート・ドメイン・アンラーニングに関する最初の総合的な実証的研究について紹介する。
その結果,非学習がモデルの深い層に不均等に影響を及ぼすことが判明した。
フェデレート・ドメイン・アンラーニングに適した新しい評価手法を提案する。
論文 参考訳(メタデータ) (2024-06-05T09:05:55Z) - Cross-Domain Continual Learning via CLAMP [10.553456651003055]
CLAMPは、すべての実験で確立されたベースラインアルゴリズムを少なくとも10%のマージンで大幅に上回っている。
ベースモデルの学習プロセスをナビゲートするために、評価者誘導学習プロセスがフォワードされる。
論文 参考訳(メタデータ) (2024-05-12T02:41:31Z) - Unified Domain Adaptive Semantic Segmentation [96.74199626935294]
Unsupervised Adaptive Domain Semantic (UDA-SS)は、ラベル付きソースドメインからラベル付きターゲットドメインに監督を移すことを目的としている。
本稿では,特徴量と特徴量との相違に対処するQuad-directional Mixup(QuadMix)法を提案する。
提案手法は,4つの挑戦的UDA-SSベンチマークにおいて,最先端の成果を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-11-22T09:18:49Z) - Improving Anomaly Segmentation with Multi-Granularity Cross-Domain
Alignment [17.086123737443714]
異常セグメンテーションは、画像中の非定型物体を識別する上で重要な役割を担っている。
既存の手法は合成データに顕著な結果を示すが、合成データドメインと実世界のデータドメインの相違を考慮できないことが多い。
シーンと個々のサンプルレベルの両方で、ドメイン間の機能を調和させるのに適した、マルチグラニュラリティ・クロスドメインアライメントフレームワークを導入します。
論文 参考訳(メタデータ) (2023-08-16T22:54:49Z) - Cross Contrasting Feature Perturbation for Domain Generalization [11.863319505696184]
ドメインの一般化は、目に見えないターゲットドメインをうまく一般化するソースドメインから堅牢なモデルを学ぶことを目的としています。
近年の研究では、ソースドメインに相補的な分布を多様化するための新しいドメインサンプルや特徴の生成に焦点が当てられている。
ドメインシフトをシミュレートするオンラインワンステージクロスコントラスト機能摂動フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-24T03:27:41Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Improving Transferability of Domain Adaptation Networks Through Domain
Alignment Layers [1.3766148734487902]
マルチソースアン教師付きドメイン適応(MSDA)は、ソースモデルの袋から弱い知識を割り当てることで、ラベルのないドメインの予測子を学習することを目的としている。
我々は,DomaIn Alignment Layers (MS-DIAL) のマルチソースバージョンを予測器の異なるレベルに埋め込むことを提案する。
我々の手法は最先端のMSDA法を改善することができ、分類精度の相対利得は+30.64%に達する。
論文 参考訳(メタデータ) (2021-09-06T18:41:19Z) - Cross-domain Imitation from Observations [50.669343548588294]
模擬学習は、専門家の行動を利用して訓練エージェントに適切な報酬関数を設計することの難しさを回避しようとする。
本稿では,専門家とエージェントMDPの相違点が存在する場合に,タスクを模倣する方法の問題について検討する。
このようなドメイン間の対応を学習するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-20T21:08:25Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z) - Multi-Source Domain Adaptation for Text Classification via
DistanceNet-Bandits [101.68525259222164]
本研究では,NLPタスクのコンテキストにおいて,サンプル推定に基づく領域間の相違を特徴付ける様々な距離ベース尺度について検討する。
タスクの損失関数と協調して最小化するために,これらの距離測度を付加的な損失関数として用いるディスタンスネットモデルを開発した。
マルチアーム・バンド・コントローラを用いて複数のソース・ドメインを動的に切り替えるDistanceNet-Banditモデルに拡張する。
論文 参考訳(メタデータ) (2020-01-13T15:53:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。