論文の概要: MTLSegFormer: Multi-task Learning with Transformers for Semantic
Segmentation in Precision Agriculture
- arxiv url: http://arxiv.org/abs/2305.02813v1
- Date: Thu, 4 May 2023 13:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:35:26.843022
- Title: MTLSegFormer: Multi-task Learning with Transformers for Semantic
Segmentation in Precision Agriculture
- Title(参考訳): mtlsegformer: 精密農業における意味セグメンテーションのためのトランスフォーマによるマルチタスク学習
- Authors: Diogo Nunes Goncalves, Jose Marcato Junior, Pedro Zamboni, Hemerson
Pistori, Jonathan Li, Keiller Nogueira, Wesley Nunes Goncalves
- Abstract要約: マルチタスク学習とアテンション機構を組み合わせたセマンティックセグメンテーション手法MTLSegFormerを提案する。
相関したタスクで2つの困難な問題で性能を検証し、精度を大幅に改善した。
- 参考スコア(独自算出の注目度): 16.817025300716796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning has proven to be effective in improving the performance
of correlated tasks. Most of the existing methods use a backbone to extract
initial features with independent branches for each task, and the exchange of
information between the branches usually occurs through the concatenation or
sum of the feature maps of the branches. However, this type of information
exchange does not directly consider the local characteristics of the image nor
the level of importance or correlation between the tasks. In this paper, we
propose a semantic segmentation method, MTLSegFormer, which combines multi-task
learning and attention mechanisms. After the backbone feature extraction, two
feature maps are learned for each task. The first map is proposed to learn
features related to its task, while the second map is obtained by applying
learned visual attention to locally re-weigh the feature maps of the other
tasks. In this way, weights are assigned to local regions of the image of other
tasks that have greater importance for the specific task. Finally, the two maps
are combined and used to solve a task. We tested the performance in two
challenging problems with correlated tasks and observed a significant
improvement in accuracy, mainly in tasks with high dependence on the others.
- Abstract(参考訳): マルチタスク学習は相関タスクの性能向上に有効であることが証明されている。
既存の手法のほとんどは、各タスクの独立ブランチで初期特徴を抽出するためにバックボーンを使用しており、ブランチ間の情報の交換は通常、ブランチの機能マップの連結や和を通じて行われる。
しかし、この種の情報交換は、画像の局所的特徴やタスク間の重要度や相関度を直接考慮していない。
本稿では,マルチタスク学習と注意機構を組み合わせた意味セグメンテーション手法であるmtlsegformerを提案する。
バックボーン機能抽出後、各タスクで2つのフィーチャーマップが学習される。
第1のマップはタスクに関連する特徴を学習するために提案され、第2のマップは学習した視覚的注意を他のタスクの特徴マップを局所的に再検討することで得られる。
このように、重みは特定のタスクにおいてより重要となる他のタスクのイメージの局所領域に割り当てられる。
最後に、2つのマップが組み合わされ、タスクの解決に使用されます。
相関タスクを伴う2つの課題において,その性能を検証し,他への依存度が高い課題を中心に,精度の大幅な向上を確認した。
関連論文リスト
- Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Sequential Cross Attention Based Multi-task Learning [22.430705836627148]
本稿では,タスクのマルチスケール機能にアテンション機構を適用することで,情報伝達を効果的に行う新しいアーキテクチャを提案する。
提案手法は,NYUD-v2およびPASCAL-Contextデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-09-06T14:17:33Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - Counting with Adaptive Auxiliary Learning [23.715818463425503]
本稿では,オブジェクトカウント問題に対する適応型補助的タスク学習に基づくアプローチを提案する。
本研究では,タスク共有とタスクカスタマイズの両機能学習を実現するために,アダプティブ・アダプティブ・アダプティブ・共有バックボーンネットワークを開発した。
本手法は,現在最先端のタスク学習に基づくカウント手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-03-08T13:10:17Z) - Distribution Matching for Heterogeneous Multi-Task Learning: a
Large-scale Face Study [75.42182503265056]
マルチタスク学習は、共有学習アルゴリズムによって複数のタスクを共同で学習する方法論として登場した。
我々は異種mtlに対処し,検出,分類,回帰問題を同時に解決する。
大規模な顔分析のための最初のフレームワークであるFaceBehaviorNetを構築し、すべての顔行動タスクを共同で学習する。
論文 参考訳(メタデータ) (2021-05-08T22:26:52Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - MTI-Net: Multi-Scale Task Interaction Networks for Multi-Task Learning [82.62433731378455]
特定のスケールで高い親和性を持つタスクは、他のスケールでこの動作を維持することが保証されていないことを示す。
本稿では,この発見に基づく新しいアーキテクチャ MTI-Net を提案する。
論文 参考訳(メタデータ) (2020-01-19T21:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。