論文の概要: Learning Semantic Segmentation from Multiple Datasets with Label Shifts
- arxiv url: http://arxiv.org/abs/2202.14030v1
- Date: Mon, 28 Feb 2022 18:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:33:10.415731
- Title: Learning Semantic Segmentation from Multiple Datasets with Label Shifts
- Title(参考訳): ラベルシフトを用いた複数データセットからのセマンティックセグメンテーションの学習
- Authors: Dongwan Kim, Yi-Hsuan Tsai, Yumin Suh, Masoud Faraki, Sparsh Garg,
Manmohan Chandraker, Bohyung Han
- Abstract要約: 本論文では,ラベル空間が異なる複数のデータセットを対象としたモデルの自動学習手法であるUniSegを提案する。
具体的には,ラベルの相反と共起を考慮に入れた2つの損失を提案する。
- 参考スコア(独自算出の注目度): 101.24334184653355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With increasing applications of semantic segmentation, numerous datasets have
been proposed in the past few years. Yet labeling remains expensive, thus, it
is desirable to jointly train models across aggregations of datasets to enhance
data volume and diversity. However, label spaces differ across datasets and may
even be in conflict with one another. This paper proposes UniSeg, an effective
approach to automatically train models across multiple datasets with differing
label spaces, without any manual relabeling efforts. Specifically, we propose
two losses that account for conflicting and co-occurring labels to achieve
better generalization performance in unseen domains. First, a gradient conflict
in training due to mismatched label spaces is identified and a
class-independent binary cross-entropy loss is proposed to alleviate such label
conflicts. Second, a loss function that considers class-relationships across
datasets is proposed for a better multi-dataset training scheme. Extensive
quantitative and qualitative analyses on road-scene datasets show that UniSeg
improves over multi-dataset baselines, especially on unseen datasets, e.g.,
achieving more than 8% gain in IoU on KITTI averaged over all the settings.
- Abstract(参考訳): セマンティックセグメンテーションの応用が進むにつれて、過去数年間に多くのデータセットが提案されている。
しかし、ラベリングは依然として高価であり、データボリュームと多様性を高めるためにデータセットの集約をまたいだモデルを共同でトレーニングすることが望ましい。
しかし、ラベル空間はデータセットによって異なり、互いに衝突することもある。
本論文では,ラベル空間が異なる複数のデータセットにまたがるモデルを自動的に学習する手法であるUniSegを提案する。
具体的には,不確定領域におけるより優れた一般化性能を達成するために,競合するラベルと共起ラベルを考慮した2つの損失を提案する。
まず、不一致ラベル空間によるトレーニングにおける勾配衝突を特定し、そのようなラベル衝突を軽減するためにクラス非依存なバイナリクロスエントロピー損失を提案する。
第二に、より優れたマルチデータセットトレーニングスキームのために、データセット間のクラス関係を考慮した損失関数を提案する。
ロードシーンデータセットの大規模な定量的および定性的な分析は、UniSegがマルチデータセットベースライン、特にKITTI上のIoUにおける8%以上のゲインを達成するなど、すべての設定で改善していることを示している。
関連論文リスト
- Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Optimizing Federated Learning for Medical Image Classification on
Distributed Non-iid Datasets with Partial Labels [3.6704226968275258]
FedFBNは、事前トレーニングされたネットワークをモデルバックエンドとして使用することで、トランスファーラーニングからインスピレーションを得る、フェデレーション付き学習フレームワークである。
我々は,FedFBNと現在のFL戦略を,部分ラベルと完全ラベルを持つシナリオをまたいだ合成イド玩具データセットと大規模非イドデータセットを用いて評価した。
論文 参考訳(メタデータ) (2023-03-10T19:23:33Z) - TransPOS: Transformers for Consolidating Different POS Tagset Datasets [0.8399688944263843]
本稿では、異なるタグ付け方式の下で、POSタグをラベル付けする2つのデータセットについて考察する。
完全に結合しない2つのデータセットを統合する問題に対処するため,Transformerを用いた新しい教師付きアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-24T08:43:53Z) - Cross-Domain Few-Shot Classification via Inter-Source Stylization [11.008292768447614]
Cross-Domain Few-Shot Classification (CDFSC)は、限られたラベル付きデータでターゲットデータセットを正確に分類することである。
本稿では、追加のラベル付けコストを必要とせずに複数のソースドメインを利用するソリューションを提案する。
論文 参考訳(メタデータ) (2022-08-17T01:44:32Z) - Adversarial Dual-Student with Differentiable Spatial Warping for
Semi-Supervised Semantic Segmentation [70.2166826794421]
本研究では、教師なしデータ拡張を行うために、微分可能な幾何ワープを提案する。
また,平均教師数を改善するために,新しい対角的二重学習フレームワークを提案する。
我々のソリューションは、両方のデータセットで得られるパフォーマンスと最先端の結果を大幅に改善します。
論文 参考訳(メタデータ) (2022-03-05T17:36:17Z) - Multi-domain semantic segmentation with overlapping labels [1.4120796122384087]
本稿では,部分ラベルと確率的損失に基づいて重なり合うクラスを持つデータセットをシームレスに学習する手法を提案する。
本手法は,トレーニングデータセットに別々にラベル付けされていない視覚概念を学習すると同時に,競合するデータセット内およびクロスデータセットの一般化を実現する。
論文 参考訳(メタデータ) (2021-08-25T13:25:41Z) - Learning from Partially Overlapping Labels: Image Segmentation under
Annotation Shift [68.6874404805223]
腹部臓器分節の文脈におけるラベルの重複から学ぶためのいくつかの方法を提案する。
半教師付きアプローチと適応的クロスエントロピー損失を組み合わせることで、不均一な注釈付きデータをうまく活用できることが判明した。
論文 参考訳(メタデータ) (2021-07-13T09:22:24Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - DAIL: Dataset-Aware and Invariant Learning for Face Recognition [67.4903809903022]
顔認識の性能向上のためには、通常大規模なトレーニングデータセットが必要である。
2つの大きな問題のために異なるデータセットを自然に組み合わせるのは問題で面倒です。
トレーニング中に異なるデータセットの異なるクラスと同じ人を扱うことは、バックプロパゲーションに影響します。
手動でラベルをクリーニングするには 人的努力が要る 特に何百万もの画像と何千ものIDがある時は
論文 参考訳(メタデータ) (2021-01-14T01:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。