論文の概要: Learning Semantic Segmentation from Multiple Datasets with Label Shifts
- arxiv url: http://arxiv.org/abs/2202.14030v1
- Date: Mon, 28 Feb 2022 18:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:33:10.415731
- Title: Learning Semantic Segmentation from Multiple Datasets with Label Shifts
- Title(参考訳): ラベルシフトを用いた複数データセットからのセマンティックセグメンテーションの学習
- Authors: Dongwan Kim, Yi-Hsuan Tsai, Yumin Suh, Masoud Faraki, Sparsh Garg,
Manmohan Chandraker, Bohyung Han
- Abstract要約: 本論文では,ラベル空間が異なる複数のデータセットを対象としたモデルの自動学習手法であるUniSegを提案する。
具体的には,ラベルの相反と共起を考慮に入れた2つの損失を提案する。
- 参考スコア(独自算出の注目度): 101.24334184653355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With increasing applications of semantic segmentation, numerous datasets have
been proposed in the past few years. Yet labeling remains expensive, thus, it
is desirable to jointly train models across aggregations of datasets to enhance
data volume and diversity. However, label spaces differ across datasets and may
even be in conflict with one another. This paper proposes UniSeg, an effective
approach to automatically train models across multiple datasets with differing
label spaces, without any manual relabeling efforts. Specifically, we propose
two losses that account for conflicting and co-occurring labels to achieve
better generalization performance in unseen domains. First, a gradient conflict
in training due to mismatched label spaces is identified and a
class-independent binary cross-entropy loss is proposed to alleviate such label
conflicts. Second, a loss function that considers class-relationships across
datasets is proposed for a better multi-dataset training scheme. Extensive
quantitative and qualitative analyses on road-scene datasets show that UniSeg
improves over multi-dataset baselines, especially on unseen datasets, e.g.,
achieving more than 8% gain in IoU on KITTI averaged over all the settings.
- Abstract(参考訳): セマンティックセグメンテーションの応用が進むにつれて、過去数年間に多くのデータセットが提案されている。
しかし、ラベリングは依然として高価であり、データボリュームと多様性を高めるためにデータセットの集約をまたいだモデルを共同でトレーニングすることが望ましい。
しかし、ラベル空間はデータセットによって異なり、互いに衝突することもある。
本論文では,ラベル空間が異なる複数のデータセットにまたがるモデルを自動的に学習する手法であるUniSegを提案する。
具体的には,不確定領域におけるより優れた一般化性能を達成するために,競合するラベルと共起ラベルを考慮した2つの損失を提案する。
まず、不一致ラベル空間によるトレーニングにおける勾配衝突を特定し、そのようなラベル衝突を軽減するためにクラス非依存なバイナリクロスエントロピー損失を提案する。
第二に、より優れたマルチデータセットトレーニングスキームのために、データセット間のクラス関係を考慮した損失関数を提案する。
ロードシーンデータセットの大規模な定量的および定性的な分析は、UniSegがマルチデータセットベースライン、特にKITTI上のIoUにおける8%以上のゲインを達成するなど、すべての設定で改善していることを示している。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Automated Label Unification for Multi-Dataset Semantic Segmentation with GNNs [48.406728896785296]
本稿では,グラフニューラルネットワークを用いて,複数のデータセットにまたがる統一ラベル空間を自動構築する手法を提案する。
従来の手法と異なり,本手法は手動の注釈や分類の調整を必要とせず,シームレスな訓練を容易にする。
論文 参考訳(メタデータ) (2024-07-15T08:42:10Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - TransPOS: Transformers for Consolidating Different POS Tagset Datasets [0.8399688944263843]
本稿では、異なるタグ付け方式の下で、POSタグをラベル付けする2つのデータセットについて考察する。
完全に結合しない2つのデータセットを統合する問題に対処するため,Transformerを用いた新しい教師付きアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-24T08:43:53Z) - Cross-Domain Few-Shot Classification via Inter-Source Stylization [11.008292768447614]
Cross-Domain Few-Shot Classification (CDFSC)は、限られたラベル付きデータでターゲットデータセットを正確に分類することである。
本稿では、追加のラベル付けコストを必要とせずに複数のソースドメインを利用するソリューションを提案する。
論文 参考訳(メタデータ) (2022-08-17T01:44:32Z) - Multi-domain semantic segmentation with overlapping labels [1.4120796122384087]
本稿では,部分ラベルと確率的損失に基づいて重なり合うクラスを持つデータセットをシームレスに学習する手法を提案する。
本手法は,トレーニングデータセットに別々にラベル付けされていない視覚概念を学習すると同時に,競合するデータセット内およびクロスデータセットの一般化を実現する。
論文 参考訳(メタデータ) (2021-08-25T13:25:41Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - DAIL: Dataset-Aware and Invariant Learning for Face Recognition [67.4903809903022]
顔認識の性能向上のためには、通常大規模なトレーニングデータセットが必要である。
2つの大きな問題のために異なるデータセットを自然に組み合わせるのは問題で面倒です。
トレーニング中に異なるデータセットの異なるクラスと同じ人を扱うことは、バックプロパゲーションに影響します。
手動でラベルをクリーニングするには 人的努力が要る 特に何百万もの画像と何千ものIDがある時は
論文 参考訳(メタデータ) (2021-01-14T01:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。