論文の概要: Design Perspectives of Multitask Deep Learning Models and Applications
- arxiv url: http://arxiv.org/abs/2209.13444v1
- Date: Tue, 27 Sep 2022 15:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 14:33:28.031191
- Title: Design Perspectives of Multitask Deep Learning Models and Applications
- Title(参考訳): マルチタスクディープラーニングモデルの設計展望とその応用
- Authors: Yeshwant Singh, Anupam Biswas, Angshuman Bora, Debashish Malakar,
Subham Chakraborty, Suman Bera
- Abstract要約: マルチタスク学習はモデルをさらに一般化することができた。
我々は,関連するタスク間で機能を共有することで,マルチタスクモデルの特徴マッピングを強化することを試みる。
また,マルチタスク学習のメリットを享受するために,タスク間のタスク関係を学習することに関心がある。
- 参考スコア(独自算出の注目度): 1.3701366534590496
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, multi-task learning has turned out to be of great success in
various applications. Though single model training has promised great results
throughout these years, it ignores valuable information that might help us
estimate a metric better. Under learning-related tasks, multi-task learning has
been able to generalize the models even better. We try to enhance the feature
mapping of the multi-tasking models by sharing features among related tasks and
inductive transfer learning. Also, our interest is in learning the task
relationships among various tasks for acquiring better benefits from multi-task
learning. In this chapter, our objective is to visualize the existing
multi-tasking models, compare their performances, the methods used to evaluate
the performance of the multi-tasking models, discuss the problems faced during
the design and implementation of these models in various domains, and the
advantages and milestones achieved by them
- Abstract(参考訳): 近年,マルチタスク学習は様々な分野で大きな成功を収めている。
単一のモデルトレーニングは、長年にわたって素晴らしい結果を約束してきたが、メトリクスをよりよく見積もるのに役立つ貴重な情報を無視している。
学習関連タスクでは、マルチタスク学習によりモデルをより一般化することができる。
我々は,関連するタスク間の特徴の共有と帰納的転送学習により,マルチタスクモデルの機能マッピングを強化する。
また,マルチタスク学習のメリットを享受するために,タスク間のタスク関係の学習にも関心があります。
本章では,既存のマルチタスクモデルを可視化し,その性能を比較すること,マルチタスクモデルの性能を評価する方法,各ドメインにおけるこれらのモデルの設計と実装における問題点,それらのメリットとマイルストーンについて議論することを目的とする。
関連論文リスト
- LIMT: Language-Informed Multi-Task Visual World Models [6.128332310539627]
マルチタスク強化学習は、サンプルの複雑さの増加と、潜在的に矛盾するタスクの目的のため、非常に難しい。
本稿では,事前学習した言語モデルを利用して意味のあるタスク表現を抽出し,マルチタスクのビジュアルワールドモデルを学習する手法を提案する。
本結果は,世界モデルにおける言語駆動型タスク表現の利点と,より一般的なモデル自由パラダイムに対するモデルベースマルチタスク学習の明確な利点を強調した。
論文 参考訳(メタデータ) (2024-07-18T12:40:58Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Multi-Task Learning for Visual Scene Understanding [7.191593674138455]
この論文はコンピュータビジョンの文脈におけるマルチタスク学習に関するものである。
マルチタスク学習の重要な側面に対処するいくつかの手法を提案する。
その結果,マルチタスク学習の最先端にいくつかの進歩が見られた。
論文 参考訳(メタデータ) (2022-03-28T16:57:58Z) - Modular Adaptive Policy Selection for Multi-Task Imitation Learning
through Task Division [60.232542918414985]
マルチタスク学習は、しばしば負の伝達に悩まされ、タスク固有の情報を共有する。
これは、プロトポリケーションをモジュールとして使用して、タスクを共有可能な単純なサブ振る舞いに分割する。
また、タスクを共有サブ行動とタスク固有のサブ行動の両方に自律的に分割する能力を示す。
論文 参考訳(メタデータ) (2022-03-28T15:53:17Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Boosting a Model Zoo for Multi-Task and Continual Learning [15.110807414130923]
モデル動物園」はモデルのアンサンブルを構築するアルゴリズムであり、それぞれが非常に小さく、小さなタスクセットで訓練されている。
モデルZooは,マルチタスクおよび連続学習における最先端手法と比較して,予測精度が大きく向上する。
論文 参考訳(メタデータ) (2021-06-06T04:25:09Z) - Small Towers Make Big Differences [59.243296878666285]
マルチタスク学習は、複数の機械学習タスクを同時に解決することを目的としている。
マルチタスク学習問題に対する優れた解法は、Paretoの最適性に加えて一般化可能であるべきである。
本稿では,マルチタスクモデルのためのパラメータ下自己助詞の手法を提案し,両世界のベストを達成した。
論文 参考訳(メタデータ) (2020-08-13T10:45:31Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Knowledge Distillation for Multi-task Learning [38.20005345733544]
マルチタスク学習(MTL)は、全てのタスクで優れたパフォーマンスを達成し、計算コストを下げるための複数のタスクを実行する単一のモデルを学習することである。
そのようなモデルを学ぶには、難易度、大きさ、特性の異なる一連のタスクの損失を共同で最適化する必要がある。
本研究では,マルチタスク学習における不均衡問題に対処するために,知識蒸留に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T08:02:42Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。