論文の概要: AdaSparse: Learning Adaptively Sparse Structures for Multi-Domain
Click-Through Rate Prediction
- arxiv url: http://arxiv.org/abs/2206.13108v1
- Date: Mon, 27 Jun 2022 08:25:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 01:29:41.351824
- Title: AdaSparse: Learning Adaptively Sparse Structures for Multi-Domain
Click-Through Rate Prediction
- Title(参考訳): AdaSparse: マルチドメインクリックスルーレート予測のための適応スパース構造学習
- Authors: Xuanhua Yang, Xiaoyu Peng, Penghui Wei, Shaoguo Liu, Liang Wang and Bo
Zheng
- Abstract要約: クリックスルー率(CTR)予測は、レコメンデーションおよび広告システムにおける基本的な手法である。
近年の研究では、複数のドメインに対応する統一モデルを学ぶことが、全体的なパフォーマンス向上に有効であることが証明されている。
本稿では,多領域CTR予測のための簡易かつ効果的なフレームワークAdaSparseを提案し,各領域のスパース構造を適応的に学習する。
- 参考スコア(独自算出の注目度): 14.470478712242047
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Click-through rate (CTR) prediction is a fundamental technique in
recommendation and advertising systems. Recent studies have proved that
learning a unified model to serve multiple domains is effective to improve the
overall performance. However, it is still challenging to improve generalization
across domains under limited training data, and hard to deploy current
solutions due to their computational complexity. In this paper, we propose a
simple yet effective framework AdaSparse for multi-domain CTR prediction, which
learns adaptively sparse structure for each domain, achieving better
generalization across domains with lower computational cost. In AdaSparse, we
introduce domain-aware neuron-level weighting factors to measure the importance
of neurons, with that for each domain our model can prune redundant neurons to
improve generalization. We further add flexible sparsity regularizations to
control the sparsity ratio of learned structures. Offline and online
experiments show that AdaSparse outperforms previous multi-domain CTR models
significantly.
- Abstract(参考訳): クリックスルー率(CTR)予測はレコメンデーションおよび広告システムにおける基本的な手法である。
近年の研究では、複数のドメインに対応する統一モデルを学ぶことが全体的なパフォーマンス向上に有効であることが証明されている。
しかし、限られたトレーニングデータの下でドメイン間の一般化を改善することは依然として困難であり、計算の複雑さのために現在のソリューションをデプロイすることは困難である。
本稿では,各領域の適応的スパース構造を学習し,計算コストの少ない領域をまたいだより良い一般化を実現するマルチドメイン ctr 予測のための,単純かつ効果的なフレームワーク adasparse を提案する。
adasparseでは、ニューロンの重要性を測定するために、ドメイン認識ニューロンレベルの重み付け因子を導入します。
さらに,学習構造のスパーシティ比を制御するために,柔軟なスパーシティ正規化も追加する。
オフラインおよびオンライン実験により、AdaSparseは従来のマルチドメインCTRモデルよりも大幅に優れていた。
関連論文リスト
- Beyond Finite Data: Towards Data-free Out-of-distribution Generalization
via Extrapolation [19.944946262284123]
ニューラルネットワークが人間のように外挿し、OODの一般化を実現するにはどうすればよいのか?
本稿では,大言語モデル(LLM)にカプセル化されている推論能力と広範な知識を活用して,完全に新しいドメインを合成する領域外挿手法を提案する。
提案手法は, VLCSなどのデータセットにおいて, 教師付き設定を約1~2%超え, 評価可能な性能を示す。
論文 参考訳(メタデータ) (2024-03-08T18:44:23Z) - Memory-Efficient Prompt Tuning for Incremental Histopathology
Classification [69.46798702300042]
本稿では,経済的なメモリコストのモデル一般化ポテンシャルを育成するための,メモリ効率の良いプロンプトチューニングフレームワークを提案する。
乳癌転移分類と上皮間質組織分類の2つの病理組織学的タスクにより,我々の枠組みを広く評価した。
論文 参考訳(メタデータ) (2024-01-22T03:24:45Z) - Re-visiting Reservoir Computing architectures optimized by Evolutionary
Algorithms [0.0]
進化的アルゴリズム(EA)はニューラルネットワーク(NN)アーキテクチャの改善に応用されている。
我々は、Reservoir Computing (RC) という、リカレントNNの特定の領域におけるEAの応用に関する体系的な簡単な調査を行う。
論文 参考訳(メタデータ) (2022-11-11T14:50:54Z) - Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening [67.6394526631557]
M&Mは、各受信データセットから漸進的に学習し、時間が経つにつれて改善された機能で漸進的に更新する必要がある。
医学的シナリオでは、データのプライバシのため、過去のデータへのアクセスや保存が一般的に許可されないため、これは特に困難である。
本稿では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T13:07:36Z) - Domain Adaptation Principal Component Analysis: base linear method for
learning with out-of-distribution data [55.41644538483948]
ドメイン適応は現代の機械学習において一般的なパラダイムである。
ドメイン適応主成分分析(DAPCA)という手法を提案する。
DAPCAは、領域適応タスクの解決に有用な線形化データ表現を見つける。
論文 参考訳(メタデータ) (2022-08-28T21:10:56Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z) - Sequential Domain Adaptation through Elastic Weight Consolidation for
Sentiment Analysis [3.1473798197405944]
我々はSDA(Sequential Domain Adaptation)というモデルに依存しないフレームワークを提案する。
提案手法は,CNNのようなシンプルなアーキテクチャが,感情分析(SA)の領域適応において,複雑な最先端モデルより優れていることを示す。
さらに、ソースドメインのより難しい第1次反計算機的順序付けの有効性が最大性能に繋がることを示した。
論文 参考訳(メタデータ) (2020-07-02T15:21:56Z) - Efficient Domain Generalization via Common-Specific Low-Rank
Decomposition [40.98883072715791]
ドメイン一般化とは、トレーニング中に見えない新しいドメインに一般化するモデルを訓練するタスクである。
我々は、共通コンポーネント(新しいドメインに一般化する)とドメイン固有コンポーネント(トレーニングドメインに過度に適合する)を共同で学習するCSD(Common Specific Decomposition)を提案する。
このアルゴリズムは非常に単純で、任意のニューラルネットワークアーキテクチャの最終線形分類層を変更するだけでよい。
論文 参考訳(メタデータ) (2020-03-28T15:17:41Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。