論文の概要: MTI-Net: Multi-Scale Task Interaction Networks for Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2001.06902v5
- Date: Wed, 8 Jul 2020 19:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 12:36:28.022099
- Title: MTI-Net: Multi-Scale Task Interaction Networks for Multi-Task Learning
- Title(参考訳): MTI-Net:マルチタスク学習のためのマルチスケールタスクインタラクションネットワーク
- Authors: Simon Vandenhende, Stamatios Georgoulis and Luc Van Gool
- Abstract要約: 特定のスケールで高い親和性を持つタスクは、他のスケールでこの動作を維持することが保証されていないことを示す。
本稿では,この発見に基づく新しいアーキテクチャ MTI-Net を提案する。
- 参考スコア(独自算出の注目度): 82.62433731378455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we argue about the importance of considering task interactions
at multiple scales when distilling task information in a multi-task learning
setup. In contrast to common belief, we show that tasks with high affinity at a
certain scale are not guaranteed to retain this behaviour at other scales, and
vice versa. We propose a novel architecture, namely MTI-Net, that builds upon
this finding in three ways. First, it explicitly models task interactions at
every scale via a multi-scale multi-modal distillation unit. Second, it
propagates distilled task information from lower to higher scales via a feature
propagation module. Third, it aggregates the refined task features from all
scales via a feature aggregation unit to produce the final per-task
predictions.
Extensive experiments on two multi-task dense labeling datasets show that,
unlike prior work, our multi-task model delivers on the full potential of
multi-task learning, that is, smaller memory footprint, reduced number of
calculations, and better performance w.r.t. single-task learning. The code is
made publicly available:
https://github.com/SimonVandenhende/Multi-Task-Learning-PyTorch.
- Abstract(参考訳): 本稿では,マルチタスク学習環境においてタスク情報を蒸留する際に,複数のスケールでタスクインタラクションを検討することの重要性について論じる。
共通の信念とは対照的に、特定のスケールで高い親和性を持つタスクは、他のスケールでこの動作を維持することが保証されていない。
我々はこの発見を3つの方法で構築する新しいアーキテクチャ MTI-Net を提案する。
まず、マルチスケールのマルチモーダル蒸留ユニットを介して、あらゆるスケールでのタスクインタラクションを明示的にモデル化する。
第二に、機能伝達モジュールを介して、より低いスケールから高いスケールで蒸留されたタスク情報を伝播する。
第3に、すべてのスケールから機能集約ユニットを介して洗練されたタスク特徴を集約し、最終的なタスク毎の予測を生成する。
2つのマルチタスク高密度ラベル付けデータセットに対する大規模な実験により、従来の研究とは異なり、我々のマルチタスクモデルはマルチタスク学習の潜在能力、すなわち、メモリフットプリントが小さくなり、計算回数が減り、シングルタスク学習の性能が向上することを示した。
コードは、https://github.com/SimonVandenhende/Multi-Task-Learning-PyTorchで公開されている。
関連論文リスト
- Cross-Task Affinity Learning for Multitask Dense Scene Predictions [5.939164722752263]
マルチタスク学習(MTL)は,複数のタスクを同時に予測する能力で注目されている。
マルチタスクネットワークにおけるタスク改善を強化する軽量フレームワークであるクロスタスク親和性学習(CTAL)モジュールを紹介する。
以上の結果から,CNNとトランスフォーマーの両バックボーンに対して,シングルタスク学習よりもはるかに少ないパラメータを用いて,最先端のMTL性能を実証した。
論文 参考訳(メタデータ) (2024-01-20T05:31:47Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - YOLOR-Based Multi-Task Learning [12.5920336941241]
マルチタスク学習(MTL)は、単一のモデルを用いて複数のタスクを学習し、一般化と共有セマンティクスを前提として、これらすべてのタスクを共同で改善することを目的としている。
マルチタスクに特化したネットワークアーキテクチャYOLOR(You Only Learn One Representation)の構築を提案する。
本手法は,低パラメータ数を維持しつつ,事前学習を行わずに,全てのタスクにおける競合性能を実現する。
論文 参考訳(メタデータ) (2023-09-29T01:42:21Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Medusa: Universal Feature Learning via Attentional Multitasking [65.94499390875046]
マルチタスク学習への最近のアプローチは、デコーダレベルでタスク間の接続をモデル化することに焦点を当てている。
MTLは普遍的特徴学習(Universal Feature Learning, UFL)への一歩であり, 新たなタスクに適用可能な汎用的な特徴を, 再学習することなく学習することができる。
UFLにおけるMedusaの有効性 (+13.18%改善) は, MTL性能を維持しつつ, 従来のアプローチよりも25%効率がよいことを示す。
論文 参考訳(メタデータ) (2022-04-12T10:52:28Z) - Attentive Task Interaction Network for Multi-Task Learning [4.1372815372396525]
ATI-Netは、各タスクに潜伏する特徴の知識蒸留を採用し、次に特徴マップを組み合わせて、デコーダに改善されたコンテキスト情報を提供する。
注目に基づくマルチタスクネットワークに知識蒸留を導入する新しいアプローチは,技術MTLベースラインの状態を上回ります。
論文 参考訳(メタデータ) (2022-01-25T22:03:20Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Knowledge Distillation for Multi-task Learning [38.20005345733544]
マルチタスク学習(MTL)は、全てのタスクで優れたパフォーマンスを達成し、計算コストを下げるための複数のタスクを実行する単一のモデルを学習することである。
そのようなモデルを学ぶには、難易度、大きさ、特性の異なる一連のタスクの損失を共同で最適化する必要がある。
本研究では,マルチタスク学習における不均衡問題に対処するために,知識蒸留に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T08:02:42Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。