論文の概要: Improving Semantic Segmentation via Self-Training
- arxiv url: http://arxiv.org/abs/2004.14960v2
- Date: Wed, 6 May 2020 16:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 05:09:08.974470
- Title: Improving Semantic Segmentation via Self-Training
- Title(参考訳): 自己学習によるセマンティックセグメンテーションの改善
- Authors: Yi Zhu, Zhongyue Zhang, Chongruo Wu, Zhi Zhang, Tong He, Hang Zhang,
R. Manmatha, Mu Li, Alexander Smola
- Abstract要約: 半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
- 参考スコア(独自算出の注目度): 75.07114899941095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning usually achieves the best results with complete supervision. In
the case of semantic segmentation, this means that large amounts of pixelwise
annotations are required to learn accurate models. In this paper, we show that
we can obtain state-of-the-art results using a semi-supervised approach,
specifically a self-training paradigm. We first train a teacher model on
labeled data, and then generate pseudo labels on a large set of unlabeled data.
Our robust training framework can digest human-annotated and pseudo labels
jointly and achieve top performances on Cityscapes, CamVid and KITTI datasets
while requiring significantly less supervision. We also demonstrate the
effectiveness of self-training on a challenging cross-domain generalization
task, outperforming conventional finetuning method by a large margin. Lastly,
to alleviate the computational burden caused by the large amount of pseudo
labels, we propose a fast training schedule to accelerate the training of
segmentation models by up to 2x without performance degradation.
- Abstract(参考訳): ディープラーニングは通常、完全な監視で最高の結果を得る。
意味セグメンテーションの場合、正確なモデルを学ぶために大量のピクセル毎のアノテーションが必要であることを意味する。
本稿では,半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果が得られることを示す。
まず、教師モデルをラベル付きデータでトレーニングし、その後、ラベル付きデータの大きなセットで擬似ラベルを生成します。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成できます。
また,従来のファインタニング手法を大きなマージンで上回り,挑戦的なクロスドメイン一般化タスクにおける自己学習の有効性を示す。
最後に,大量の擬似ラベルによる計算負担を軽減するため,性能劣化のないセグメンテーションモデルのトレーニングを最大2倍高速化する高速なトレーニングスケジュールを提案する。
関連論文リスト
- Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Enhancing Self-Training Methods [0.0]
半教師付き学習アプローチでは、ラベル付きデータの小さなセットとラベルなしデータの大きなセットをトレーニングする。
自己学習は「確認バイアス」の問題に悩まされる半教師型教師学生のアプローチである
論文 参考訳(メタデータ) (2023-01-18T03:56:17Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - ST++: Make Self-training Work Better for Semi-supervised Semantic
Segmentation [23.207191521477654]
半教師付きセグメンテーションにおいて、自己学習 -- シンプルだが人気のあるフレームワーク -- がよりうまく機能できるかどうかを調査する。
より信頼性の高い未ラベル画像の選択と優先順位付けにより選択的な再学習を行う高度自己学習フレームワーク(ST++)を提案する。
その結果、提案したST++は、半教師付きモデルの性能を大幅に向上させ、Pascal VOC 2012とCityscapesベンチマークにおいて、既存のメソッドをはるかに上回っている。
論文 参考訳(メタデータ) (2021-06-09T14:18:32Z) - A Simple Baseline for Semi-supervised Semantic Segmentation with Strong
Data Augmentation [74.8791451327354]
セマンティックセグメンテーションのためのシンプルで効果的な半教師付き学習フレームワークを提案する。
単純な設計とトレーニングのテクニックのセットは、半教師付きセマンティックセグメンテーションの性能を大幅に向上させることができる。
本手法は,Cityscapes と Pascal VOC データセットの半教師付き設定において,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-04-15T06:01:39Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Naive-Student: Leveraging Semi-Supervised Learning in Video Sequences
for Urban Scene Segmentation [57.68890534164427]
本研究では,未ラベル映像シーケンスと追加画像の半教師付き学習を利用して,都市景観セグメンテーションの性能を向上させることができるかどうかを問う。
我々は単にラベルのないデータに対して擬似ラベルを予測し、人間の注釈付きデータと擬似ラベル付きデータの両方でその後のモデルを訓練する。
我々のNaive-Studentモデルは、このような単純で効果的な反復的半教師付き学習で訓練され、3つのCityscapesベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2020-05-20T18:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。