論文の概要: Efficient Full Image Interactive Segmentation by Leveraging Within-image
Appearance Similarity
- arxiv url: http://arxiv.org/abs/2007.08173v1
- Date: Thu, 16 Jul 2020 08:21:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:27:07.358497
- Title: Efficient Full Image Interactive Segmentation by Leveraging Within-image
Appearance Similarity
- Title(参考訳): 画像内外観類似性を利用した高能率フルイメージインタラクティブセグメンテーション
- Authors: Mykhaylo Andriluka, Stefano Pellegrini, Stefan Popov, Vittorio Ferrari
- Abstract要約: インタラクティブなフルイメージセマンティックセマンティックセグメンテーションのための新しいアプローチを提案する。
ラベル付き画素からラベルなしピクセルへの伝搬は必ずしもクラス固有の知識を必要としない。
この観測に基づいて,複数のクラスから画素ラベルを共同で伝播する手法を提案する。
- 参考スコア(独自算出の注目度): 39.17599924322882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new approach to interactive full-image semantic segmentation
which enables quickly collecting training data for new datasets with previously
unseen semantic classes (A demo is available at https://youtu.be/yUk8D5gEX-o).
We leverage a key observation: propagation from labeled to unlabeled pixels
does not necessarily require class-specific knowledge, but can be done purely
based on appearance similarity within an image. We build on this observation
and propose an approach capable of jointly propagating pixel labels from
multiple classes without having explicit class-specific appearance models. To
enable long-range propagation, our approach first globally measures appearance
similarity between labeled and unlabeled pixels across the entire image. Then
it locally integrates per-pixel measurements which improves the accuracy at
boundaries and removes noisy label switches in homogeneous regions. We also
design an efficient manual annotation interface that extends the traditional
polygon drawing tools with a suite of additional convenient features (and add
automatic propagation to it). Experiments with human annotators on the COCO
Panoptic Challenge dataset show that the combination of our better manual
interface and our novel automatic propagation mechanism leads to reducing
annotation time by more than factor of 2x compared to polygon drawing. We also
test our method on the ADE-20k and Fashionista datasets without making any
dataset-specific adaptation nor retraining our model, demonstrating that it can
generalize to new datasets and visual classes.
- Abstract(参考訳): 従来は認識されていなかった意味クラスで新しいデータセットのトレーニングデータを迅速に収集できるインタラクティブなフルイメージセマンティクスセグメンテーションへの新しいアプローチを提案する(デモはhttps://youtu.be/yuk8d5gex-oで利用可能)。
ラベル付き画素からラベルなしピクセルへの伝搬は必ずしもクラス固有の知識を必要としないが、画像内の外観的類似性に基づいて純粋に行うことができる。
我々は,この観測に基づいて,クラス固有の外観モデルを持たない複数のクラスから画素ラベルを共同で伝播する手法を提案する。
長距離伝搬を実現するため,画像全体にわたってラベル付き画素とラベルなし画素の外観類似性を測定する。
そして、局所的にピクセル単位の測定を統合し、境界における精度を改善し、同質領域におけるノイズの多いラベルスイッチを除去する。
また,従来のポリゴン描画ツールを便利な機能群で拡張し,自動的なプロパゲーションを付加する,効率的な手動アノテーションインタフェースを設計する。
COCO Panoptic Challengeデータセットのアノテータを用いた実験により、より優れた手動インタフェースと新しい自動伝搬機構を組み合わせることで、ポリゴン描画と比較してアノテーション時間を2倍以上短縮できることが示された。
また,ade-20k と fashionista のデータセットでテストを行い,データセット固有の適応やモデルの再トレーニングを行わず,新たなデータセットやビジュアルクラスに一般化できることを実証した。
関連論文リスト
- Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - CorrMatch: Label Propagation via Correlation Matching for
Semi-Supervised Semantic Segmentation [73.89509052503222]
本稿では、CorrMatchと呼ばれる、単純だが実行可能な半教師付きセマンティックセマンティックセマンティックセマンティクス手法を提案する。
相関写像は、同一カテゴリのクラスタリングピクセルを容易に実現できるだけでなく、良好な形状情報も含んでいることを観察する。
我々は,高信頼画素を拡大し,さらに掘り出すために,画素の対の類似性をモデル化して画素伝搬を行う。
そして、相関地図から抽出した正確なクラス非依存マスクを用いて、領域伝搬を行い、擬似ラベルを強化する。
論文 参考訳(メタデータ) (2023-06-07T10:02:29Z) - High-fidelity Pseudo-labels for Boosting Weakly-Supervised Segmentation [17.804090651425955]
画像レベルの弱い教師付きセグメンテーション(WSSS)は、トレーニング中にセグメンテーションマスクを代理することで、通常膨大なデータアノテーションコストを削減する。
本研究は,GAPの代替となる重要サンプリングと特徴類似性損失という,CAMを改善するための2つの手法に基づく。
複数の独立二項問題の後部二項問題に基づいて両手法を再構成する。
パフォーマンスが向上し、より一般的なものになり、事実上あらゆるWSSSメソッドを増強できるアドオンメソッドが出来上がります。
論文 参考訳(メタデータ) (2023-04-05T17:43:57Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Deep Active Learning for Joint Classification & Segmentation with Weak
Annotator [22.271760669551817]
クラスアクティベーションマップ(CAM)のようなCNNの可視化と解釈手法は、一般的に、クラス予測に関連する画像領域を強調するために使用される。
本稿では,画素レベルのアノテーションを段階的に統合する能動的学習フレームワークを提案する。
提案手法は, ランダムなサンプル選択を用いることで, 最先端のCAMやAL手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-10-10T03:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。