論文の概要: Exploiting Minority Pseudo-Labels for Semi-Supervised Semantic Segmentation in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2409.12680v2
- Date: Sun, 22 Sep 2024 13:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 13:56:59.003221
- Title: Exploiting Minority Pseudo-Labels for Semi-Supervised Semantic Segmentation in Autonomous Driving
- Title(参考訳): 自動運転における半監督セマンティックセマンティックセグメンテーションのための小型擬似ラベルの爆発
- Authors: Yuting Hong, Hui Xiao, Huazheng Hao, Xiaojie Qiu, Baochen Yao, Chengbin Peng,
- Abstract要約: マイノリティ・クラス・ラーニングを強化するためのプロフェッショナル・トレーニング・モジュールと、より包括的なセマンティック情報を学ぶための一般的なトレーニング・モジュールを提案する。
実験では,ベンチマークデータセットの最先端手法と比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 2.638145329894673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advancement of autonomous driving, semantic segmentation has achieved remarkable progress. The training of such networks heavily relies on image annotations, which are very expensive to obtain. Semi-supervised learning can utilize both labeled data and unlabeled data with the help of pseudo-labels. However, in many real-world scenarios where classes are imbalanced, majority classes often play a dominant role during training and the learning quality of minority classes can be undermined. To overcome this limitation, we propose a synergistic training framework, including a professional training module to enhance minority class learning and a general training module to learn more comprehensive semantic information. Based on a pixel selection strategy, they can iteratively learn from each other to reduce error accumulation and coupling. In addition, a dual contrastive learning with anchors is proposed to guarantee more distinct decision boundaries. In experiments, our framework demonstrates superior performance compared to state-of-the-art methods on benchmark datasets.
- Abstract(参考訳): 自律運転の進歩により、セマンティックセグメンテーションは目覚ましい進歩を遂げた。
このようなネットワークのトレーニングは画像アノテーションに大きく依存する。
半教師付き学習は、擬似ラベルの助けを借りてラベル付きデータと未ラベル付きデータの両方を利用することができる。
しかし、クラスがバランスの取れない現実のシナリオでは、多数派クラスがトレーニングにおいて支配的な役割を果たすことが多く、マイノリティクラスの学習品質が損なわれることがある。
この制限を克服するために、マイノリティクラス学習を強化する専門的なトレーニングモジュールと、より包括的な意味情報を学ぶための一般的なトレーニングモジュールを含む、シナジスティックなトレーニングフレームワークを提案する。
画素選択戦略に基づいて、互いから反復的に学習し、エラーの蓄積と結合を低減する。
さらに、より明確な決定境界を保証するために、アンカーを用いた二重コントラスト学習を提案する。
実験では,ベンチマークデータセットの最先端手法と比較して優れた性能を示す。
関連論文リスト
- A Classifier-Free Incremental Learning Framework for Scalable Medical Image Segmentation [6.591403935303867]
本稿では,単一分類器のないネットワークにおいて,可変数のクラスをセグメント化できる新しいセグメンテーションパラダイムを提案する。
このネットワークは、コントラスト学習を用いて訓練され、簡単な解釈を容易にする識別的特徴表現を生成する。
統合ネットワーク内での様々なクラス数処理における本手法の柔軟性とその漸進学習能力について述べる。
論文 参考訳(メタデータ) (2024-05-25T19:05:07Z) - DiverseNet: Decision Diversified Semi-supervised Semantic Segmentation Networks for Remote Sensing Imagery [17.690698736544626]
トレーニング中の精度と多様性を同時に向上し,マルチヘッド・マルチモデル半教師付き学習アルゴリズムを探索するDiverseNetを提案する。
DiverseNetファミリーで提案されている2つの手法、すなわちDiverseHeadとDiverseModelは、広く利用されている4つのリモートセンシング画像データセットにおいて、セマンティックセマンティックセマンティクスの性能を向上させる。
論文 参考訳(メタデータ) (2023-11-22T22:20:10Z) - Voxel-wise Adversarial Semi-supervised Learning for Medical Image
Segmentation [4.489713477369384]
医用画像セグメンテーションのための新しい対向学習に基づく半教師付きセグメンテーション手法を提案する。
本手法では,複数の階層から局所的特徴とグローバルな特徴を埋め込んで,複数のクラス間のコンテキスト関係を学習する。
左心房(シングルクラス)とマルチオーガニックデータセット(マルチクラス)のイメージセグメンテーションにおける、最先端の半教師あり学習手法よりも優れています。
論文 参考訳(メタデータ) (2022-05-14T06:57:19Z) - A Pixel-Level Meta-Learner for Weakly Supervised Few-Shot Semantic
Segmentation [40.27705176115985]
Few-shotのセマンティックセマンティックセグメンテーションは、興味のある新しいクラスのために、地上の真実のピクセルレベルのラベルを持つ少数の画像しか利用できない学習タスクに対処する。
限られたデータとその意味ラベルから擬似画素レベルのセグメンテーションマスクを予測するメタラーニングフレームワークを提案する。
提案する学習モデルは,画素レベルのメタラーナーとみなすことができる。
論文 参考訳(メタデータ) (2021-11-02T08:28:11Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - Multi-Label Image Classification with Contrastive Learning [57.47567461616912]
コントラスト学習の直接適用は,複数ラベルの場合においてほとんど改善できないことを示す。
完全教師付き環境下でのコントラスト学習を用いたマルチラベル分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-24T15:00:47Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。