論文の概要: Task Aware Feature Extraction Framework for Sequential Dependence
Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2301.02494v1
- Date: Fri, 6 Jan 2023 13:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:23:12.032544
- Title: Task Aware Feature Extraction Framework for Sequential Dependence
Multi-Task Learning
- Title(参考訳): 逐次依存型マルチタスク学習のためのタスク認識特徴抽出フレームワーク
- Authors: Xuewen Tao and Mingming Ha and Xiaobo Guo and Qiongxu Ma and Hongwei
Cheng and Wenfang Lin
- Abstract要約: 我々は厳密な数学的観点から逐次依存型MLLを解析する。
逐次依存型MLLのためのタスク認識特徴抽出(TAFE)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.0765359420035392
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-task learning (MTL) has been successfully implemented in many
real-world applications, which aims to simultaneously solve multiple tasks with
a single model. The general idea of multi-task learning is designing kinds of
global parameter sharing mechanism and task-specific feature extractor to
improve the performance of all tasks. However, sequential dependence between
tasks are rarely studied but frequently encountered in e-commence online
recommendation, e.g. impression, click and conversion on displayed product.
There is few theoretical work on this problem and biased optimization object
adopted in most MTL methods deteriorates online performance. Besides, challenge
still remains in balancing the trade-off between various tasks and effectively
learn common and specific representation. In this paper, we first analyze
sequential dependence MTL from rigorous mathematical perspective and design a
dependence task learning loss to provide an unbiased optimizing object. And we
propose a Task Aware Feature Extraction (TAFE) framework for sequential
dependence MTL, which enables to selectively reconstruct implicit shared
representations from a sample-wise view and extract explicit task-specific
information in an more efficient way. Extensive experiments on offline datasets
and online A/B implementation demonstrate the effectiveness of our proposed
TAFE.
- Abstract(参考訳): マルチタスク学習(mtl)は多くの現実世界のアプリケーションでうまく実装されており、単一のモデルで複数のタスクを同時に解決することを目指している。
マルチタスク学習の一般的な考え方は、全タスクのパフォーマンスを改善するために、グローバルパラメータ共有機構とタスク固有の特徴抽出器を設計することである。
しかし、タスク間のシーケンシャルな依存は滅多に研究されていないが、オンラインのオンラインレコメンデーション(インプレッション、クリック、コンバージョンなど)で頻繁に発生する。
この問題に関する理論的研究はほとんどなく、ほとんどのMTL手法で採用されているバイアス最適化オブジェクトはオンライン性能を劣化させる。
さらに、さまざまなタスク間のトレードオフのバランスを保ち、共通および特定の表現を効果的に学習する上でも課題は残る。
本稿では,まず,厳密な数学的観点から逐次依存度mtlを解析し,不偏最適化対象として依存度タスク学習損失を設計する。
また,逐次依存型MLLのためのタスク認識特徴抽出(TAFE)フレームワークを提案する。
オフラインデータセットとオンラインa/b実装に関する広範な実験により,提案手法の有効性が実証された。
関連論文リスト
- AdapMTL: Adaptive Pruning Framework for Multitask Learning Model [5.643658120200373]
AdapMTLはマルチタスクモデルのための適応型プルーニングフレームワークである。
複数のタスクにまたがって、空間割り当てと精度のパフォーマンスのバランスをとる。
最先端の刈り取り法に比べて優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-07T17:19:15Z) - Intuition-aware Mixture-of-Rank-1-Experts for Parameter Efficient Finetuning [50.73666458313015]
大規模言語モデル(LLM)はマルチメディアアプリケーションで複数のタスクを実行する上で大きな可能性を証明している。
MoEは、効率的なタスクデカップリングのためのスパースアーキテクチャによる有望なソリューションとして登場した。
Intuition-MoR1Eは14のパブリックデータセットで優れた効率と2.15%の全体的な精度向上を実現している。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - InterroGate: Learning to Share, Specialize, and Prune Representations
for Multi-task Learning [17.66308231838553]
推論計算効率を最適化しつつ,タスク干渉を緩和する新しいマルチタスク学習(MTL)アーキテクチャを提案する。
学習可能なゲーティング機構を用いて、すべてのタスクのパフォーマンスを保ちながら、共有表現とタスク固有の表現を自動的にバランスさせる。
論文 参考訳(メタデータ) (2024-02-26T18:59:52Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Multi-Task Cooperative Learning via Searching for Flat Minima [8.835287696319641]
本稿では,MTLを多段最適化問題として定式化し,各タスクから協調的なアプローチで特徴を学習させることを提案する。
具体的には、他のタスクの学習したサブモデルを利用する代わりに、各タスクのサブモデルを更新する。
最適化時の負の伝達問題を緩和するため、現在の目的関数に対する平坦な最小値を求める。
論文 参考訳(メタデータ) (2023-09-21T14:00:11Z) - STG-MTL: Scalable Task Grouping for Multi-Task Learning Using Data Map [4.263847576433289]
MTL(Multi-Task Learning)は、従来のSTL(Single-Task Learning)よりも性能が向上し、普及した強力な技術である。
しかし、MTLは指数的なタスクグルーピング数が多いため、しばしば困難である。
本稿では,これらの課題に対処し,課題分類のためのスケーラブルでモジュール化されたソリューションを提供する新しいデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T03:54:26Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Semi-supervised Multi-task Learning for Semantics and Depth [88.77716991603252]
MTL(Multi-Task Learning)は、関連するタスク間で表現を共有することで、モデル一般化を強化することを目的としている。
そこで本研究では,異なるデータセットから利用可能な監視信号を活用するために,半教師付きマルチタスク学習(MTL)手法を提案する。
本稿では,データセット間の整合性の問題を軽減するために,様々なアライメントの定式化を施したドメイン認識識別器構造を提案する。
論文 参考訳(メタデータ) (2021-10-14T07:43:39Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。