論文の概要: ECAT: A Entire space Continual and Adaptive Transfer Learning Framework for Cross-Domain Recommendation
- arxiv url: http://arxiv.org/abs/2407.02542v1
- Date: Tue, 2 Jul 2024 07:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 18:43:42.943352
- Title: ECAT: A Entire space Continual and Adaptive Transfer Learning Framework for Cross-Domain Recommendation
- Title(参考訳): ECAT: クロスドメインレコメンデーションのための拡張空間連続および適応トランスファー学習フレームワーク
- Authors: Chaoqun Hou, Yuanhang Zhou, Yi Cao, Tong Liu,
- Abstract要約: 本稿では,ECAT と呼ばれる拡張空間連続・適応変換学習フレームワークを提案する。
ECATには2つのコアコンポーネントがある: まず、サンプル転送について、粗大なプロセスを実現する2段階の手法を提案する。
第2に,空間データセット全体においてよく訓練されたモデルから表現を継続的に伝達する適応的知識蒸留法を提案する。
- 参考スコア(独自算出の注目度): 7.466783681250159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In industrial recommendation systems, there are several mini-apps designed to meet the diverse interests and needs of users. The sample space of them is merely a small subset of the entire space, making it challenging to train an efficient model. In recent years, there have been many excellent studies related to cross-domain recommendation aimed at mitigating the problem of data sparsity. However, few of them have simultaneously considered the adaptability of both sample and representation continual transfer setting to the target task. To overcome the above issue, we propose a Entire space Continual and Adaptive Transfer learning framework called ECAT which includes two core components: First, as for sample transfer, we propose a two-stage method that realizes a coarse-to-fine process. Specifically, we perform an initial selection through a graph-guided method, followed by a fine-grained selection using domain adaptation method. Second, we propose an adaptive knowledge distillation method for continually transferring the representations from a model that is well-trained on the entire space dataset. ECAT enables full utilization of the entire space samples and representations under the supervision of the target task, while avoiding negative migration. Comprehensive experiments on real-world industrial datasets from Taobao show that ECAT advances state-of-the-art performance on offline metrics, and brings +13.6% CVR and +8.6% orders for Baiyibutie, a famous mini-app of Taobao.
- Abstract(参考訳): 産業レコメンデーションシステムには、ユーザの多様な関心やニーズを満たすように設計されたミニアプリがいくつかある。
それらのサンプル空間は、単に空間全体の小さな部分集合であり、効率的なモデルを訓練することは困難である。
近年,データ疎結合の問題を緩和するためのドメイン間推薦に関する優れた研究が数多く行われている。
しかし、対象タスクに対するサンプルと表現継続転送設定の両方の適応性を同時に考慮しているものはほとんどない。
上記の課題を克服するために,ECAT と呼ばれる拡張空間連続・適応変換学習フレームワークを提案する。まず,サンプル転送について,粗大なプロセスを実現する2段階の手法を提案する。
具体的には、グラフ誘導法を用いて初期選択を行い、続いてドメイン適応法を用いてきめ細かい選択を行う。
第2に,空間データセット全体においてよく訓練されたモデルから表現を継続的に伝達する適応的知識蒸留法を提案する。
ECATは、ターゲットタスクの監督下にある全空間サンプルと表現のフル活用を可能にすると同時に、負のマイグレーションを回避する。
Taobaoの実際の産業データセットに関する総合的な実験によると、ECATはオフラインメトリクスで最先端のパフォーマンスを向上し、TaobaoのミニアプリBaiyibutieに+13.6%のCVRと+8.6%の注文をもたらす。
関連論文リスト
- DIIT: A Domain-Invariant Information Transfer Method for Industrial Cross-Domain Recommendation [12.029152857303101]
クロスドメイン勧告(CDR: Cross-Domain Recommendation)は、ドメイン間の豊富な情報を活用する能力によって、広く注目を集めている。
既存のCDR法の多くは、産業レコメンデーションシステム(RS)では実用的でない理想的な静的条件を前提としている。
産業用クロスドメインレコメンデーションのためのエンドツーエンドなドメイン不変情報伝達手法であるDIITを提案する。
論文 参考訳(メタデータ) (2024-09-29T06:59:22Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - Taxonomy Adaptive Cross-Domain Adaptation in Medical Imaging via
Optimization Trajectory Distillation [73.83178465971552]
自動医用画像解析の成功は、大規模かつ専門家による注釈付きトレーニングセットに依存する。
非教師なしドメイン適応(UDA)はラベル付きデータ収集の負担を軽減するための有望なアプローチである。
本稿では,2つの技術的課題に新しい視点から対処する統一的手法である最適化トラジェクトリ蒸留を提案する。
論文 参考訳(メタデータ) (2023-07-27T08:58:05Z) - TADA: Efficient Task-Agnostic Domain Adaptation for Transformers [3.9379577980832843]
本研究では,タスクに依存しない新しいドメイン適応手法であるTADを紹介する。
TADA内では、トランスフォーマーエンコーダ用のドメイン認識型入力表現とトークン化器を学習するために埋め込みを再学習する。
メタ埋め込みと新しいメタトケナイザを用いて実験を行い、マルチドメインのユースケースでタスク毎に1つのモデルを作成する。
論文 参考訳(メタデータ) (2023-05-22T04:53:59Z) - Semi-supervised Domain Adaptation via Prototype-based Multi-level
Learning [4.232614032390374]
半教師付きドメイン適応(SSDA)では、各クラスのいくつかのラベル付きターゲットサンプルが、完全なラベル付きソースドメインからターゲットドメインへの知識表現の転送を支援する。
本稿では,ラベル付き対象サンプルの可能性をうまく活用するために,プロトタイプベースのマルチレベル学習(ProML)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-04T10:09:30Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。