論文の概要: Cross-Task Knowledge Distillation in Multi-Task Recommendation
- arxiv url: http://arxiv.org/abs/2202.09852v1
- Date: Sun, 20 Feb 2022 16:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 07:53:59.467835
- Title: Cross-Task Knowledge Distillation in Multi-Task Recommendation
- Title(参考訳): マルチタスク勧告におけるクロスタスク知識蒸留
- Authors: Chenxiao Yang, Junwei Pan, Xiaofeng Gao, Tingyu Jiang, Dapeng Liu,
Guihai Chen
- Abstract要約: マルチタスク学習は、さまざまなタイプのユーザフィードバックを予測するために、現実世界のレコメンデータで広く利用されている。
本稿では,3つの手順からなるクロスタスク知識蒸留フレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.62428191434233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning has been widely used in real-world recommenders to
predict different types of user feedback. Most prior works focus on designing
network architectures for bottom layers as a means to share the knowledge about
input features representations. However, since they adopt task-specific binary
labels as supervised signals for training, the knowledge about how to
accurately rank items is not fully shared across tasks. In this paper, we aim
to enhance knowledge transfer for multi-task personalized recommendat
optimization objectives. We propose a Cross-Task Knowledge Distillation
(CrossDistil) framework in recommendation, which consists of three procedures.
1) Task Augmentation: We introduce auxiliary tasks with quadruplet loss
functions to capture cross-task fine-grained ranking information, which could
avoid task conflicts by preserving the cross-task consistent knowledge; 2)
Knowledge Distillation: We design a knowledge distillation approach based on
augmented tasks for sharing ranking knowledge, where tasks' predictions are
aligned with a calibration process; 3) Model Training: Teacher and student
models are trained in an end-to-end manner, with a novel error correction
mechanism to speed up model training and improve knowledge quality.
Comprehensive experiments on a public dataset and our production dataset are
carried out to verify the effectiveness of CrossDistil as well as the necessity
of its key components.
- Abstract(参考訳): マルチタスク学習は、様々なタイプのユーザーフィードバックを予測するために、現実世界のレコメンデーションで広く使われている。
ほとんどの先行研究は、入力機能表現に関する知識を共有する手段として、ボトム層のためのネットワークアーキテクチャを設計することに重点を置いている。
しかしながら、タスク固有のバイナリラベルをトレーニングの教師付きシグナルとして採用しているため、アイテムを正確にランク付けする方法に関する知識がタスク間で完全に共有されていない。
本稿では,マルチタスクパーソナライズされた推薦最適化目標に対する知識伝達の促進を目的とする。
提案手法は,3つの手順から構成するクロスタスク知識蒸留(crossdistil)フレームワークを提案する。
1)タスク強化:クロスタスクの微粒なランキング情報を取得するために,クロスタスク一貫した知識を保ちながらタスクの衝突を回避するために,四重項損失関数付き補助タスクを導入する。
2)知識蒸留:我々は,タスクの予測が校正プロセスと整合しているランキング知識を共有するための強化タスクに基づく知識蒸留アプローチを設計する。
3)モデルトレーニング:教師と学生のモデルは,モデルトレーニングを高速化し,知識の質を向上させる新しい誤り訂正機構を用いて,エンドツーエンドで訓練される。
公開データセットと運用データセットに関する総合的な実験を行い、CrossDistilの有効性と重要なコンポーネントの必要性を検証する。
関連論文リスト
- Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Cross-task Attention Mechanism for Dense Multi-task Learning [16.040894192229043]
我々は2次元セマンティックセグメンテーションと2つの幾何学的タスク、すなわち密度深度と表面正規度推定を共同で扱う。
相関誘導型注意と自己注意によってペアワイズなクロスタスク交換を利用する,新しいマルチタスク学習アーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-17T17:59:45Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z) - Learning Multiple Dense Prediction Tasks from Partially Annotated Data [41.821234589075445]
マルチタスク部分教師付き学習(multi-task part-supervised learning)と呼ぶ部分注釈付きデータ上で,複数の密接な予測タスクを共同で学習する。
本稿では,タスク関係を利用したマルチタスク学習手法を提案する。
提案手法は,既存の半教師付き学習手法や関連手法を3つの標準ベンチマークで上回り,非ラベルなタスクで効果的に活用できることを厳密に実証する。
論文 参考訳(メタデータ) (2021-11-29T19:03:12Z) - Towards All-around Knowledge Transferring: Learning From Task-irrelevant
Labels [44.036667329736225]
既存の取り組みは、この問題に取り組むために、タスク関連知識を他の類似データから移すことに重点を置いている。
これまでタスク非関連の特徴の影響を調査する大規模な研究は行われていない。
本稿では,タスク非関連ラベルから主に抽出されるタスク非関連特徴を利用するタスク非関連変換学習を提案する。
論文 参考訳(メタデータ) (2020-11-17T06:43:58Z) - Measuring and Harnessing Transference in Multi-Task Learning [58.48659733262734]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
情報伝達や伝達のダイナミクスを、トレーニングを通して分析する。
論文 参考訳(メタデータ) (2020-10-29T08:25:43Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。