論文の概要: Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference
- arxiv url: http://arxiv.org/abs/2007.12540v1
- Date: Fri, 24 Jul 2020 14:44:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 06:13:34.245225
- Title: Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference
- Title(参考訳): タスク干渉のないインクリメンタルマルチタスク学習のための再パラメータ化畳み込み
- Authors: Menelaos Kanakis, David Bruggemann, Suman Saha, Stamatios Georgoulis,
Anton Obukhov, Luc Van Gool
- Abstract要約: マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
- 参考スコア(独自算出の注目度): 75.95287293847697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task networks are commonly utilized to alleviate the need for a large
number of highly specialized single-task networks. However, two common
challenges in developing multi-task models are often overlooked in literature.
First, enabling the model to be inherently incremental, continuously
incorporating information from new tasks without forgetting the previously
learned ones (incremental learning). Second, eliminating adverse interactions
amongst tasks, which has been shown to significantly degrade the single-task
performance in a multi-task setup (task interference). In this paper, we show
that both can be achieved simply by reparameterizing the convolutions of
standard neural network architectures into a non-trainable shared part (filter
bank) and task-specific parts (modulators), where each modulator has a fraction
of the filter bank parameters. Thus, our reparameterization enables the model
to learn new tasks without adversely affecting the performance of existing
ones. The results of our ablation study attest the efficacy of the proposed
reparameterization. Moreover, our method achieves state-of-the-art on two
challenging multi-task learning benchmarks, PASCAL-Context and NYUD, and also
demonstrates superior incremental learning capability as compared to its close
competitors.
- Abstract(参考訳): マルチタスクネットワークは、多くの高度に専門化されたシングルタスクネットワークの必要性を軽減するために一般的に利用される。
しかし、マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
第一に、モデルが本質的にインクリメンタルで、新しいタスクからの情報を継続的に取り入れられるようにすること(インクリメンタル学習)。
第二に、マルチタスク設定(タスク干渉)において、シングルタスクのパフォーマンスが著しく低下していることが示されている。
本稿では、標準ニューラルネットワークアーキテクチャの畳み込みを、トレーニング不能な共有部分(フィルタバンク)とタスク固有部分(変調器)に再パラメータ化し、各変調器がフィルタバンクパラメータのごく一部を持つようにすることで、両方を実現できることを示す。
これにより,既存のタスクの性能に悪影響を及ぼすことなく,新たなタスクを学習することができる。
アブレーション研究の結果は,提案する再パラメーターの有効性を検証できた。
さらに,本手法は,PASCAL-ContextとNYUDという2つの挑戦的マルチタスク学習ベンチマークの最先端化を実現し,競合相手に比べて優れた漸進学習能力を示す。
関連論文リスト
- An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems [4.675744559395732]
マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T13:10:47Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z) - In Defense of the Unitary Scalarization for Deep Multi-Task Learning [121.76421174107463]
本稿では,多くの特殊マルチタスクを正規化の形式として解釈できることを示唆する理論解析について述べる。
標準正規化と安定化技術と組み合わせると、ユニタリスカラー化は複雑なマルチタスクの性能にマッチし、改善することを示す。
論文 参考訳(メタデータ) (2022-01-11T18:44:17Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - Knowledge Distillation for Multi-task Learning [38.20005345733544]
マルチタスク学習(MTL)は、全てのタスクで優れたパフォーマンスを達成し、計算コストを下げるための複数のタスクを実行する単一のモデルを学習することである。
そのようなモデルを学ぶには、難易度、大きさ、特性の異なる一連のタスクの損失を共同で最適化する必要がある。
本研究では,マルチタスク学習における不均衡問題に対処するために,知識蒸留に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T08:02:42Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。