論文の概要: Weakly-Supervised Semantic Segmentation by Learning Label Uncertainty
- arxiv url: http://arxiv.org/abs/2110.05926v1
- Date: Tue, 12 Oct 2021 12:19:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 14:50:49.095166
- Title: Weakly-Supervised Semantic Segmentation by Learning Label Uncertainty
- Title(参考訳): ラベルの不確かさ学習による弱教師付きセマンティックセグメンテーション
- Authors: Robby Neven, Davy Neven, Bert De Brabandere, Marc Proesmans and Toon
Goedem\'e
- Abstract要約: 画素完全ラベルの小さなサブセットだけでセグメント化ネットワークを訓練する新たな損失関数を提案する。
私たちの損失は、ネットワークにバウンディングボックス内でラベルの不確実性を学ぶように訓練します。
我々は各タスクを18%のピクセル完全度と82%のバウンディングボックスラベルからなるデータセットでトレーニングした。
- 参考スコア(独自算出の注目度): 8.074019565026544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the rise of deep learning, many computer vision tasks have seen
significant advancements. However, the downside of deep learning is that it is
very data-hungry. Especially for segmentation problems, training a deep neural
net requires dense supervision in the form of pixel-perfect image labels, which
are very costly. In this paper, we present a new loss function to train a
segmentation network with only a small subset of pixel-perfect labels, but take
the advantage of weakly-annotated training samples in the form of cheap
bounding-box labels. Unlike recent works which make use of box-to-mask proposal
generators, our loss trains the network to learn a label uncertainty within the
bounding-box, which can be leveraged to perform online bootstrapping (i.e.
transforming the boxes to segmentation masks), while training the network. We
evaluated our method on binary segmentation tasks, as well as a multi-class
segmentation task (CityScapes vehicles and persons). We trained each task on a
dataset comprised of only 18% pixel-perfect and 82% bounding-box labels, and
compared the results to a baseline model trained on a completely pixel-perfect
dataset. For the binary segmentation tasks, our method achieves an IoU score
which is ~98.33% as good as our baseline model, while for the multi-class task,
our method is 97.12% as good as our baseline model (77.5 vs. 79.8 mIoU).
- Abstract(参考訳): ディープラーニングの登場以来、多くのコンピュータビジョンタスクは大きな進歩を遂げてきた。
しかし、ディープラーニングの欠点は、非常にデータ不足であることです。
特にセグメンテーション問題では、ディープニューラルネットワークのトレーニングには、ピクセル完全画像ラベルの形での深い監督が必要である。
本稿では,少数の画素完全ラベルを持つセグメンテーションネットワークをトレーニングする新たな損失関数を提案するが,安価なバウンディングボックスラベルという形で弱アノテーション付きトレーニングサンプルを利用する。
ボックス・ツー・マスクの提案ジェネレータを利用する最近の作品とは異なり、ネットワークをトレーニングし、バウンディングボックス内でラベルの不確実性を学習し、オンラインブートストラップ(ボックスをセグメンテーションマスクに変換する)を実行することができる。
提案手法は,複数クラスセグメンテーションタスク (cityscapes vehicle and person) とともに,バイナリセグメンテーションタスクに関する評価を行った。
18%のピクセル完全と82%のバウンディングボックスラベルからなるデータセットで各タスクをトレーニングし、完全なピクセル完全データセットでトレーニングされたベースラインモデルと比較した。
また,2値分割タスクでは,ベースラインモデルに匹敵するIoUスコアが98.33%,マルチクラスタスクでは97.12%,ベースラインモデルに匹敵するIoUスコアが79.8mIoUであった。
関連論文リスト
- You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - Semantic Segmentation with Active Semi-Supervised Learning [23.79742108127707]
本稿では,能動的学習と半教師付き学習を組み合わせた新しいアルゴリズムを提案する。
本手法は,ネットワークの性能の95%以上をフルトレーニングセットで取得する。
論文 参考訳(メタデータ) (2022-03-21T04:16:25Z) - Mars Terrain Segmentation with Less Labels [1.1745324895296465]
本研究では,火星の地形区分に関する半教師付き学習フレームワークを提案する。
コントラスト損失関数と出力アトラス畳み込みモジュールを使ってトレーニングされるバックボーンモジュールが組み込まれている。
提案したモデルは161のトレーニング画像のみを用いて91.1%のセグメンテーション精度を達成することができる。
論文 参考訳(メタデータ) (2022-02-01T22:25:15Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation [78.36781565047656]
私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
論文 参考訳(メタデータ) (2021-04-06T02:27:25Z) - Contrastive Learning for Label-Efficient Semantic Segmentation [44.10416030868873]
Convolutional Neural Network(CNN)ベースのセマンティックセグメンテーションアプローチは、大量のラベル付きデータを使用して印象的な結果を達成しました。
事実上のクロスエントロピー損失でトレーニングされたディープCNNは、少量のラベル付きデータに容易に適合する。
簡便で効果的な対比学習型トレーニング戦略を提案し、まずはピクセル単位のラベルベースの対比損失を用いてネットワークを前訓練します。
論文 参考訳(メタデータ) (2020-12-13T07:05:39Z) - Big Self-Supervised Models are Strong Semi-Supervised Learners [116.00752519907725]
ImageNet上での半教師あり学習に驚くほど効果的であることを示す。
我々のアプローチの重要な要素は、事前訓練と微調整において大きな(深度と広度)ネットワークを使用することである。
ラベルが少なくなればなるほど、より大きなネットワークから、このアプローチ(ラベル付きデータのタスクに依存しない使用)が恩恵を受けることが分かっています。
論文 参考訳(メタデータ) (2020-06-17T17:48:22Z) - Weakly-Supervised Semantic Segmentation by Iterative Affinity Learning [86.45526827323954]
弱教師付きセマンティックセグメンテーションは、トレーニングのためにピクセル単位のラベル情報が提供されないため、難しい課題である。
このようなペア関係を学習するための反復アルゴリズムを提案する。
本稿では,提案アルゴリズムが最先端手法に対して好適に動作することを示す。
論文 参考訳(メタデータ) (2020-02-19T10:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。