論文の概要: Multi-Task Consistency for Active Learning
- arxiv url: http://arxiv.org/abs/2306.12398v1
- Date: Wed, 21 Jun 2023 17:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 12:27:58.025431
- Title: Multi-Task Consistency for Active Learning
- Title(参考訳): アクティブラーニングのためのマルチタスク一貫性
- Authors: Aral Hekimoglu, Philipp Friedrich, Walter Zimmer, Michael Schmidt,
Alvaro Marcos-Ramiro, Alois C. Knoll
- Abstract要約: 不整合に基づくアクティブラーニングは、アノテーションに対する情報的サンプルの選択に有効であることが証明されている。
本稿では,オブジェクト検出とセマンティックセグメンテーションという2つの複合視覚タスクのための,新しいマルチタスク能動学習戦略を提案する。
提案手法は、利用可能なデータのわずか67%を使用して、完全にトレーニングされたパフォーマンスの95%を達成している。
- 参考スコア(独自算出の注目度): 18.794331424921946
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Learning-based solutions for vision tasks require a large amount of labeled
training data to ensure their performance and reliability. In single-task
vision-based settings, inconsistency-based active learning has proven to be
effective in selecting informative samples for annotation. However, there is a
lack of research exploiting the inconsistency between multiple tasks in
multi-task networks. To address this gap, we propose a novel multi-task active
learning strategy for two coupled vision tasks: object detection and semantic
segmentation. Our approach leverages the inconsistency between them to identify
informative samples across both tasks. We propose three constraints that
specify how the tasks are coupled and introduce a method for determining the
pixels belonging to the object detected by a bounding box, to later quantify
the constraints as inconsistency scores. To evaluate the effectiveness of our
approach, we establish multiple baselines for multi-task active learning and
introduce a new metric, mean Detection Segmentation Quality (mDSQ), tailored
for the multi-task active learning comparison that addresses the performance of
both tasks. We conduct extensive experiments on the nuImages and A9 datasets,
demonstrating that our approach outperforms existing state-of-the-art methods
by up to 3.4% mDSQ on nuImages. Our approach achieves 95% of the fully-trained
performance using only 67% of the available data, corresponding to 20% fewer
labels compared to random selection and 5% fewer labels compared to
state-of-the-art selection strategy. Our code will be made publicly available
after the review process.
- Abstract(参考訳): ビジョンタスクのための学習ベースのソリューションは、パフォーマンスと信頼性を確保するために大量のラベル付きトレーニングデータを必要とする。
単一タスクの視覚に基づく設定では、一貫性に基づく能動学習がアノテーションの情報的サンプルの選択に有効であることが証明されている。
しかし、マルチタスクネットワークにおける複数のタスク間の不整合を利用した研究は乏しい。
そこで本研究では,オブジェクト検出とセマンティクスセグメンテーションという2つの協調視覚タスクのための,新しいマルチタスクアクティブラーニング戦略を提案する。
提案手法は,両タスク間の矛盾を利用して情報的サンプルを同定する。
タスクの結合方法を規定する3つの制約を提案し、境界ボックスによって検出されたオブジェクトに属するピクセルを決定する方法を導入し、後に制約を不一致スコアとして定量化する。
提案手法の有効性を評価するため,マルチタスク能動学習のための複数のベースラインを確立し,両タスクのパフォーマンスに対処するマルチタスク能動学習比較に適した,平均検出セグメンテーション品質(mDSQ)を新たに導入する。
我々はnuImagesとA9データセットの広範な実験を行い、我々のアプローチがnuImagesの3.4% mDSQで既存の最先端メソッドより優れていることを示した。
提案手法は,完全な学習結果の95%を,利用可能なデータのわずか67%で達成し,ランダム選択に比べてラベルが20%少なく,最先端選択戦略に比べてラベルが5%少ない。
私たちのコードはレビュープロセス後に公開されます。
関連論文リスト
- Leveraging knowledge distillation for partial multi-task learning from multiple remote sensing datasets [2.1178416840822023]
ターゲットタスクの1つにトレーニング例をアノテートする部分的マルチタスク学習は、リモートセンシングにおいて有望なアイデアである。
本稿では, 知識蒸留を用いて, 代替課題における基礎的真理の必要性を代替し, その性能を向上させることを提案する。
論文 参考訳(メタデータ) (2024-05-24T09:48:50Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - On Steering Multi-Annotations per Sample for Multi-Task Learning [79.98259057711044]
マルチタスク学習の研究はコミュニティから大きな注目を集めている。
目覚ましい進歩にもかかわらず、異なるタスクを同時に学習するという課題はまだ検討されていない。
従来の研究は、異なるタスクから勾配を修正しようとするが、これらの手法はタスク間の関係の主観的な仮定を与え、修正された勾配はより正確でないかもしれない。
本稿では,タスク割り当てアプローチによってこの問題に対処する機構であるタスク割当(STA)を紹介し,各サンプルをランダムにタスクのサブセットに割り当てる。
さらなる進展のために、我々は全てのタスクを反復的に割り当てるためにInterleaved Task Allocation(ISTA)を提案する。
論文 参考訳(メタデータ) (2022-03-06T11:57:18Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Learning Multiple Dense Prediction Tasks from Partially Annotated Data [41.821234589075445]
マルチタスク部分教師付き学習(multi-task part-supervised learning)と呼ぶ部分注釈付きデータ上で,複数の密接な予測タスクを共同で学習する。
本稿では,タスク関係を利用したマルチタスク学習手法を提案する。
提案手法は,既存の半教師付き学習手法や関連手法を3つの標準ベンチマークで上回り,非ラベルなタスクで効果的に活用できることを厳密に実証する。
論文 参考訳(メタデータ) (2021-11-29T19:03:12Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Multi-task Learning by Leveraging the Semantic Information [14.397128692867799]
タスク間の意味的条件関係を探索し,マルチタスク学習におけるラベル情報の利用を提案する。
また,分析結果から,意味分布と協調してラベル分布の発散を制御する具体的アルゴリズムが導かれる。
論文 参考訳(メタデータ) (2021-03-03T17:36:35Z) - Label-Efficient Multi-Task Segmentation using Contrastive Learning [0.966840768820136]
比較学習に基づくサブタスクを用いたマルチタスクセグメンテーションモデルを提案し、その性能を他のマルチタスクモデルと比較する。
提案手法は,アノテートデータの量に制限がある場合に,最先端の完全教師付きモデルを含む他のマルチタスク手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T14:12:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。