論文の概要: YOLOR-Based Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2309.16921v1
- Date: Fri, 29 Sep 2023 01:42:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 15:58:05.088750
- Title: YOLOR-Based Multi-Task Learning
- Title(参考訳): YOLORに基づくマルチタスク学習
- Authors: Hung-Shuo Chang, Chien-Yao Wang, Richard Robert Wang, Gene Chou,
Hong-Yuan Mark Liao
- Abstract要約: マルチタスク学習(MTL)は、単一のモデルを用いて複数のタスクを学習し、一般化と共有セマンティクスを前提として、これらすべてのタスクを共同で改善することを目的としている。
マルチタスクに特化したネットワークアーキテクチャYOLOR(You Only Learn One Representation)の構築を提案する。
本手法は,低パラメータ数を維持しつつ,事前学習を行わずに,全てのタスクにおける競合性能を実現する。
- 参考スコア(独自算出の注目度): 12.5920336941241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning (MTL) aims to learn multiple tasks using a single model
and jointly improve all of them assuming generalization and shared semantics.
Reducing conflicts between tasks during joint learning is difficult and
generally requires careful network design and extremely large models. We
propose building on You Only Learn One Representation (YOLOR), a network
architecture specifically designed for multitasking. YOLOR leverages both
explicit and implicit knowledge, from data observations and learned latents,
respectively, to improve a shared representation while minimizing the number of
training parameters. However, YOLOR and its follow-up, YOLOv7, only trained two
tasks at once. In this paper, we jointly train object detection, instance
segmentation, semantic segmentation, and image captioning. We analyze tradeoffs
and attempt to maximize sharing of semantic information. Through our
architecture and training strategies, we find that our method achieves
competitive performance on all tasks while maintaining a low parameter count
and without any pre-training. We will release code soon.
- Abstract(参考訳): マルチタスク学習(mtl)は、単一のモデルを使って複数のタスクを学習することを目的としており、これらすべてを一般化と共有セマンティクスを仮定して共同で改善する。
共同学習中のタスク間の競合を減らすことは難しく、一般的に注意深いネットワーク設計と非常に大きなモデルを必要とする。
マルチタスクに特化したネットワークアーキテクチャYOLOR(You Only Learn One Representation)の構築を提案する。
YOLORは、データ観測から、暗黙の知識と暗黙の知識の両方を活用して、トレーニングパラメータの数を最小化しながら、共有表現を改善する。
しかし、YOLORとその後継であるYOLOv7は、一度に2つのタスクのみを訓練した。
本稿では,オブジェクト検出,インスタンスセグメンテーション,セマンティックセグメンテーション,イメージキャプションを共同で訓練する。
トレードオフを分析し、セマンティック情報の共有を最大化しようとします。
アーキテクチャとトレーニング戦略を通じて,本手法は低パラメータ数を維持しつつ,事前学習を行わずに,全てのタスクにおいて競争性能を達成する。
すぐにコードをリリースします。
関連論文リスト
- Cross-Task Affinity Learning for Multitask Dense Scene Predictions [5.939164722752263]
マルチタスク学習(MTL)は,複数のタスクを同時に予測する能力で注目されている。
マルチタスクネットワークにおけるタスク改善を強化する軽量フレームワークであるクロスタスク親和性学習(CTAL)モジュールを紹介する。
以上の結果から,CNNとトランスフォーマーの両バックボーンに対して,シングルタスク学習よりもはるかに少ないパラメータを用いて,最先端のMTL性能を実証した。
論文 参考訳(メタデータ) (2024-01-20T05:31:47Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Musketeer: Joint Training for Multi-task Vision Language Model with Task Explanation Prompts [75.75548749888029]
本稿では,全てのタスクに対してパラメータを共同で訓練し,複数の異種タスク間で完全に共有する視覚言語モデルを提案する。
単一のモデルで、Musteteerは単一のタスクでトレーニングされた強いベースラインに匹敵する結果を得る。
論文 参考訳(メタデータ) (2023-05-11T17:57:49Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Rethinking Hard-Parameter Sharing in Multi-Task Learning [20.792654758645302]
マルチタスク学習(MTL)におけるハードパラメータ共有により、タスクはモデルのパラメータの一部を共有でき、ストレージコストを低減し、予測精度を向上させることができる。
共通の共有プラクティスは、タスク毎に別々のトップレイヤを使用しながら、タスク間でディープニューラルネットワークのボトムレイヤを共有することだ。
異なるボトム層パラメータを使用することで、一般的なプラクティスよりも大幅にパフォーマンスが向上する可能性がある。
論文 参考訳(メタデータ) (2021-07-23T17:26:40Z) - Multi-Task Learning with Deep Neural Networks: A Survey [0.0]
マルチタスク学習(Multi-task learning、MTL)は、複数のタスクを共有モデルで同時に学習する機械学習のサブフィールドである。
深層ニューラルネットワークにおけるマルチタスク学習手法の概要を述べる。
論文 参考訳(メタデータ) (2020-09-10T19:31:04Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z) - MTI-Net: Multi-Scale Task Interaction Networks for Multi-Task Learning [82.62433731378455]
特定のスケールで高い親和性を持つタスクは、他のスケールでこの動作を維持することが保証されていないことを示す。
本稿では,この発見に基づく新しいアーキテクチャ MTI-Net を提案する。
論文 参考訳(メタデータ) (2020-01-19T21:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。