論文の概要: One for Dozens: Adaptive REcommendation for All Domains with Counterfactual Augmentation
- arxiv url: http://arxiv.org/abs/2412.11905v1
- Date: Mon, 16 Dec 2024 15:52:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:53:54.412598
- Title: One for Dozens: Adaptive REcommendation for All Domains with Counterfactual Augmentation
- Title(参考訳): ドーゼンのためのもの:非現実的な拡張を伴うすべてのドメインに対する適応的勧告
- Authors: Huishi Luo, Yiwen Chen, Yiqing Wu, Fuzhen Zhuang, Deqing Wang,
- Abstract要約: マルチドメインレコメンデーション(MDR)は、さまざまなドメインにわたるレコメンデーションパフォーマンスの向上を目的としている。
従来のMDRアルゴリズムは一般に5つ未満の領域にフォーカスする。
本稿では,全てのドメインに対するアダプティブ・レコメンデーションを提案する。
- 参考スコア(独自算出の注目度): 32.945861240561
- License:
- Abstract: Multi-domain recommendation (MDR) aims to enhance recommendation performance across various domains. However, real-world recommender systems in online platforms often need to handle dozens or even hundreds of domains, far exceeding the capabilities of traditional MDR algorithms, which typically focus on fewer than five domains. Key challenges include a substantial increase in parameter count, high maintenance costs, and intricate knowledge transfer patterns across domains. Furthermore, minor domains often suffer from data sparsity, leading to inadequate training in classical methods. To address these issues, we propose Adaptive REcommendation for All Domains with counterfactual augmentation (AREAD). AREAD employs a hierarchical structure with a limited number of expert networks at several layers, to effectively capture domain knowledge at different granularities. To adaptively capture the knowledge transfer pattern across domains, we generate and iteratively prune a hierarchical expert network selection mask for each domain during training. Additionally, counterfactual assumptions are used to augment data in minor domains, supporting their iterative mask pruning. Our experiments on two public datasets, each encompassing over twenty domains, demonstrate AREAD's effectiveness, especially in data-sparse domains. Source code is available at https://github.com/Chrissie-Law/AREAD-Multi-Domain-Recommendation.
- Abstract(参考訳): マルチドメインレコメンデーション(MDR)は、さまざまなドメインにわたるレコメンデーションパフォーマンスの向上を目的としている。
しかし、オンラインプラットフォームの現実世界のレコメンデーターシステムは、数十ないし数百のドメインを扱う必要があることが多い。
主な課題は、パラメータカウントの大幅な増加、高いメンテナンスコスト、ドメイン間の複雑な知識伝達パターンである。
さらに、マイナードメインはデータ疎結合に悩まされることが多く、古典的な手法では訓練が不十分である。
これらの課題に対処するため、我々は、アダプティブ・レコメンデーション(Adaptive Recommendation for All Domains with counterfactual augmentation, AREAD)を提案する。
AREADは、複数の層で限られた数の専門家ネットワークを持つ階層構造を採用し、異なる粒度のドメイン知識を効果的に捉える。
ドメイン間の知識伝達パターンを適応的にキャプチャするために、トレーニング中に各ドメインに対して階層的な専門家ネットワーク選択マスクを生成し、反復的に作成する。
さらに、デファクトの仮定は、マイナードメインにおけるデータの増大に使われ、反復的なマスクプルーニングをサポートする。
20以上のドメインを含む2つの公開データセットに関する実験は、AREADの有効性を実証している。
ソースコードはhttps://github.com/Chrissie-Law/AREAD-Multi-Domain-Recommendationで公開されている。
関連論文リスト
- Large-Scale Multi-Domain Recommendation: an Automatic Domain Feature Extraction and Personalized Integration Framework [30.46152832695426]
大規模マルチドメインレコメンデーションのための自動ドメイン特徴抽出とパーソナライズド統合(DFEI)フレームワークを提案する。
このフレームワークは個々のユーザの振る舞いを自動的にドメイン内のすべてのユーザの振る舞いの集約に変換し、ドメインの機能として機能します。
20以上のドメインからなるパブリックデータセットと産業データセットの実験結果から,提案フレームワークがSOTAベースラインと比較して大幅に性能が向上していることが明らかとなった。
論文 参考訳(メタデータ) (2024-04-12T09:57:17Z) - Role Prompting Guided Domain Adaptation with General Capability Preserve
for Large Language Models [55.51408151807268]
特定のドメインに合わせると、LLM(Large Language Models)は破滅的な忘れを経験する傾向がある。
同時に複数のドメインのための汎用モデルを構築することで、全体的なパフォーマンスが低下することが多い。
RolE Prompting Guided Multi-Domain Adaptation (REGA) 戦略を提案する。
論文 参考訳(メタデータ) (2024-03-05T08:22:41Z) - Virtual Classification: Modulating Domain-Specific Knowledge for
Multidomain Crowd Counting [67.38137379297717]
マルチドメインのクラウドカウントは、複数の多様なデータセットの一般的なモデルを学ぶことを目的としている。
ディープネットワークは、ドメインバイアスとして知られるすべてのドメインではなく、支配的なドメインの分布をモデル化することを好む。
マルチドメイン群カウントにおけるドメインバイアス問題を処理するために,MDKNet(Modulating Domain-specific Knowledge Network)を提案する。
論文 参考訳(メタデータ) (2024-02-06T06:49:04Z) - Adapting Self-Supervised Representations to Multi-Domain Setups [47.03992469282679]
現在の最先端の自己教師型アプローチは、個々のドメインで訓練するときに有効であるが、目に見えないドメインでは限定的な一般化を示す。
本稿では,汎用的で軽量なドメイン・ディスタングル・モジュールを提案する。
論文 参考訳(メタデータ) (2023-09-07T20:05:39Z) - Domain Generalization for Domain-Linked Classes [8.738092015092207]
実世界では、クラスはドメインリンクされ、すなわち特定のドメインでのみ表現される。
本稿では,ドメインリンクDG,FONDのためのFair and cONtrastive feature-space regularizationアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-01T16:39:50Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Domain Consistency Regularization for Unsupervised Multi-source Domain
Adaptive Classification [57.92800886719651]
近年,深層学習に基づくマルチソース非教師付きドメイン適応(MUDA)が活発に研究されている。
MUDAのドメインシフトは、ソースドメインとターゲットドメインの間だけでなく、複数のソースドメインの間にも存在します。
本稿では、教師なしマルチソースドメイン適応分類において、ドメインの一貫性規則化を利用するエンドツーエンドのトレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T07:29:27Z) - Open Domain Generalization with Domain-Augmented Meta-Learning [83.59952915761141]
オープンドメイン一般化(OpenDG)の新しい実践的問題について研究する。
本稿では,オープンドメイン一般化表現を学ぶためのメタ学習フレームワークを提案する。
種々のマルチドメインデータセットの実験結果から、提案したドメイン拡張メタラーニング(DAML)が、未確認ドメイン認識の先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-08T09:12:24Z) - Multi-Domain Spoken Language Understanding Using Domain- and Task-Aware
Parameterization [78.93669377251396]
音声言語理解は、各ドメインでトレーニングデータのセットが利用できる教師付き学習問題として対処されてきた。
既存の1つのアプローチは、ドメイン間の共同トレーニングに共有パラメータを使用して、マルチドメイン学習を行うことによって、この問題を解決する。
本稿では,ドメイン固有モデルパラメータとタスク固有モデルパラメータを用いて,この手法のパラメータ化を改善することを提案する。
論文 参考訳(メタデータ) (2020-04-30T15:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。