論文の概要: All you need are a few pixels: semantic segmentation with PixelPick
- arxiv url: http://arxiv.org/abs/2104.06394v1
- Date: Tue, 13 Apr 2021 17:55:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:26:11.163177
- Title: All you need are a few pixels: semantic segmentation with PixelPick
- Title(参考訳): 必要なのは数ピクセルだけ。pixelpickによるセマンティックセグメンテーション
- Authors: Gyungin Shin, Weidi Xie, Samuel Albanie
- Abstract要約: そこで本研究では,十分なセグメンテーション性能を達成するためには,いくつかの精細なピクセルラベルだけでよいことを示す。
我々は,この現象をpixelpickと呼ばれるアクティブ学習フレームワークで活用し,ラベリングコストを劇的に削減する方法を実証する。
- 参考スコア(独自算出の注目度): 30.234492042103966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A central challenge for the task of semantic segmentation is the prohibitive
cost of obtaining dense pixel-level annotations to supervise model training. In
this work, we show that in order to achieve a good level of segmentation
performance, all you need are a few well-chosen pixel labels. We make the
following contributions: (i) We investigate the novel semantic segmentation
setting in which labels are supplied only at sparse pixel locations, and show
that deep neural networks can use a handful of such labels to good effect; (ii)
We demonstrate how to exploit this phenomena within an active learning
framework, termed PixelPick, to radically reduce labelling cost, and propose an
efficient "mouse-free" annotation strategy to implement our approach; (iii) We
conduct extensive experiments to study the influence of annotation diversity
under a fixed budget, model pretraining, model capacity and the sampling
mechanism for picking pixels in this low annotation regime; (iv) We provide
comparisons to the existing state of the art in semantic segmentation with
active learning, and demonstrate comparable performance with up to two orders
of magnitude fewer pixel annotations on the CamVid, Cityscapes and PASCAL VOC
2012 benchmarks; (v) Finally, we evaluate the efficiency of our annotation
pipeline and its sensitivity to annotator error to demonstrate its
practicality.
- Abstract(参考訳): セマンティックセグメンテーションの課題は、モデルトレーニングを監督するために高密度のピクセルレベルのアノテーションを取得することの禁止コストである。
そこで本研究では,十分なセグメンテーション性能を達成するためには,いくつかの精細なピクセルラベルだけでよいことを示す。
We make the following contributions: (i) We investigate the novel semantic segmentation setting in which labels are supplied only at sparse pixel locations, and show that deep neural networks can use a handful of such labels to good effect; (ii) We demonstrate how to exploit this phenomena within an active learning framework, termed PixelPick, to radically reduce labelling cost, and propose an efficient "mouse-free" annotation strategy to implement our approach; (iii) We conduct extensive experiments to study the influence of annotation diversity under a fixed budget, model pretraining, model capacity and the sampling mechanism for picking pixels in this low annotation regime; (iv) We provide comparisons to the existing state of the art in semantic segmentation with active learning, and demonstrate comparable performance with up to two orders of magnitude fewer pixel annotations on the CamVid, Cityscapes and PASCAL VOC 2012 benchmarks; (v) Finally, we evaluate the efficiency of our annotation pipeline and its sensitivity to annotator error to demonstrate its practicality.
関連論文リスト
- Learning Camouflaged Object Detection from Noisy Pseudo Label [60.9005578956798]
本稿では,まず,弱い半教師付きカモフラージュオブジェクト検出(COD)法を提案する。
予算効率が高く高精度なカモフラージュされたオブジェクトセグメンテーションを目標とし、完全にラベル付けされた画像が極めて限られている。
本稿では,早期の学習段階において,モデルが正しい画素の学習を容易にするノイズ補正損失を提案する。
完全ラベル付きデータの20%しか使用しない場合,本手法は最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-18T04:53:51Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Pointly-Supervised Panoptic Segmentation [106.68888377104886]
弱教師付き単眼セグメンテーションにポイントレベルのアノテーションを適用するための新しい手法を提案する。
完全に教師された方法で使用される高密度のピクセルレベルラベルの代わりに、ポイントレベルラベルは、監督対象ごとに単一のポイントしか提供しない。
我々は、ポイントレベルのラベルから同時に汎視的擬似マスクを生成し、それらから学習することで、エンドツーエンドのフレームワークにおける問題を定式化する。
論文 参考訳(メタデータ) (2022-10-25T12:03:51Z) - Incremental Learning in Semantic Segmentation from Image Labels [18.404068463921426]
既存のセマンティックセグメンテーションアプローチは印象的な結果を得るが、新しいカテゴリが発見されるにつれてモデルを漸進的に更新することは困難である。
本稿では、安価で広く利用可能な画像レベルのラベルから新しいクラスを分類することを目的とした、Weakly Incremental Learning for Semanticsのための新しいフレームワークを提案する。
擬似ラベルをオフラインで生成する既存のアプローチとは対照的に、画像レベルのラベルで訓練され、セグメンテーションモデルで正規化される補助分類器を使用して、擬似スーパービジョンをオンラインで取得し、モデルを漸進的に更新する。
論文 参考訳(メタデータ) (2021-12-03T12:47:12Z) - A Pixel-Level Meta-Learner for Weakly Supervised Few-Shot Semantic
Segmentation [40.27705176115985]
Few-shotのセマンティックセマンティックセグメンテーションは、興味のある新しいクラスのために、地上の真実のピクセルレベルのラベルを持つ少数の画像しか利用できない学習タスクに対処する。
限られたデータとその意味ラベルから擬似画素レベルのセグメンテーションマスクを予測するメタラーニングフレームワークを提案する。
提案する学習モデルは,画素レベルのメタラーナーとみなすことができる。
論文 参考訳(メタデータ) (2021-11-02T08:28:11Z) - Superpixel-guided Iterative Learning from Noisy Labels for Medical Image
Segmentation [24.557755528031453]
セグメンテーションネットワークの雑音認識学習とノイズラベル改善を組み合わせた,頑健な反復学習戦略を開発する。
2つのベンチマーク実験により,本手法は最近の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-07-21T14:27:36Z) - Semi-supervised Semantic Segmentation with Directional Context-aware
Consistency [66.49995436833667]
我々は、ラベル付きデータの小さなセットに、全くラベル付けされていない画像のより大きなコレクションを提供する半教師付きセグメンテーション問題に焦点をあてる。
好ましいハイレベル表現は、自己認識を失わずにコンテキスト情報をキャプチャするべきである。
我々は,DCロス(Directional Contrastive Loss)を画素対ピクセルの整合性を達成するために提示する。
論文 参考訳(メタデータ) (2021-06-27T03:42:40Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Few-Shot Semantic Segmentation Augmented with Image-Level Weak
Annotations [23.02986307143718]
ショットセマンティックセグメンテーションの最近の進歩は、わずか数ピクセルレベルの注釈付き例によってこの問題に対処している。
私たちのキーとなるアイデアは、イメージレベルのラベル付きデータから知識を融合させることで、クラスのより優れたプロトタイプ表現を学ぶことです。
画像レベルのアノテーションを統合することで,距離空間におけるクラスプロトタイプ表現を学習するための新しいフレームワークPAIAを提案する。
論文 参考訳(メタデータ) (2020-07-03T04:58:20Z) - Self-Supervised Tuning for Few-Shot Segmentation [82.32143982269892]
Few-shotのセグメンテーションは、アノテートされたサンプルがほとんどない各画像ピクセルにカテゴリラベルを割り当てることを目的としている。
既存のメタラーニング手法では, 画像から抽出した視覚的特徴を埋め込み空間に埋め込むと, カテゴリー別識別記述子の生成に失敗する傾向にある。
本稿では,複数のエピソードにまたがる潜在特徴の分布を,自己分割方式に基づいて動的に調整する適応型フレームワークチューニングを提案する。
論文 参考訳(メタデータ) (2020-04-12T03:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。