論文の概要: AutoEnsemble: Automated Ensemble Search Framework for Semantic
Segmentation Using Image Labels
- arxiv url: http://arxiv.org/abs/2303.07898v2
- Date: Wed, 15 Mar 2023 07:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 10:24:41.629130
- Title: AutoEnsemble: Automated Ensemble Search Framework for Semantic
Segmentation Using Image Labels
- Title(参考訳): AutoEnsemble:イメージラベルを用いたセマンティックセグメンテーションのための自動アンサンブル検索フレームワーク
- Authors: Erik Ostrowski and Muhammad Shafique
- Abstract要約: 実世界で最先端のセマンティックセグメンテーションネットワークを採用する上で重要なボトルネックは、トレーニングラベルの可用性である。
クラスレベルで異なるセグメンテーション手法のセットに「擬似ラベル」のアンサンブルを用いた新しいフレームワーク「AutoEnsemble」を提案する。
擬似ラベルは、複数のセグメンテーションアプローチの強い点をシームレスに組み合わせ、予測品質を向上する。
- 参考スコア(独自算出の注目度): 12.404169549562523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A key bottleneck of employing state-of-the-art semantic segmentation networks
in the real world is the availability of training labels. Standard semantic
segmentation networks require massive pixel-wise annotated labels to reach
state-of-the-art prediction quality. Hence, several works focus on semantic
segmentation networks trained with only image-level annotations. However, when
scrutinizing the state-of-the-art results in more detail, we notice that
although they are very close to each other on average prediction quality,
different approaches perform better in different classes while providing low
quality in others. To address this problem, we propose a novel framework,
AutoEnsemble, which employs an ensemble of the "pseudo-labels" for a given set
of different segmentation techniques on a class-wise level. Pseudo-labels are
the pixel-wise predictions of the image-level semantic segmentation frameworks
used to train the final segmentation model. Our pseudo-labels seamlessly
combine the strong points of multiple segmentation techniques approaches to
reach superior prediction quality. We reach up to 2.4% improvement over
AutoEnsemble's components. An exhaustive analysis was performed to demonstrate
AutoEnsemble's effectiveness over state-of-the-art frameworks for image-level
semantic segmentation.
- Abstract(参考訳): 最先端のセマンティクスセグメンテーションネットワークを現実世界で採用する上で重要なボトルネックは、トレーニングラベルの可用性である。
標準的なセマンティクスセグメンテーションネットワークは、最先端の予測品質に達するために大量のピクセル単位で注釈付きラベルを必要とする。
したがって、いくつかの作品は画像レベルのアノテーションだけで訓練されたセマンティックセグメンテーションネットワークに焦点を当てている。
しかし、最先端の成果をより詳細に調べると、平均的な予測品質では互いに非常に近いが、異なるアプローチは異なるクラスでより優れた性能を示し、他のクラスでは低い品質を提供する。
この問題に対処するため,我々は,クラスレベルでの異なるセグメンテーション手法の集合に対して,"pseudo-labels"のアンサンブルを用いた,新しいフレームワークであるautoensembleを提案する。
Pseudo-labelsは、最終的なセグメンテーションモデルをトレーニングするために使用される画像レベルのセグメンテーションフレームワークのピクセルワイズ予測である。
擬似ラベルは複数のセグメンテーション手法の強い点をシームレスに組み合わせて予測精度を向上させる。
AutoEnsembleのコンポーネントよりも2.4%改善しています。
画像レベルのセマンティックセグメンテーションのための最先端フレームワークに対するAutoEnsembleの有効性を示すために、徹底的な分析を行った。
関連論文リスト
- Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - The devil is in the labels: Semantic segmentation from sentences [106.52405522077841]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Semantic Segmentation In-the-Wild Without Seeing Any Segmentation
Examples [34.97652735163338]
本稿では,各オブジェクトに対するセマンティックセグメンテーションマスク作成のための新しいアプローチを提案する。
本手法は,画像に含まれるクラスカテゴリのイメージレベルラベルを入力として扱う。
このステージの出力は、教師付きメソッドが必要とする手動のピクセルレベルラベルの代わりに、ピクセルレベルの擬似ラベルを提供する。
論文 参考訳(メタデータ) (2021-12-06T17:32:38Z) - Maximize the Exploration of Congeneric Semantics for Weakly Supervised
Semantic Segmentation [27.155133686127474]
グラフニューラルネットワーク(P-GNN)を,同一のクラスラベルを含む異なる画像からの自己検出パッチに基づいて構築する。
PASCAL VOC 2012ベンチマークで実験を行い、そのモデルにより最先端の性能が得られた。
論文 参考訳(メタデータ) (2021-10-08T08:59:16Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Semantically Meaningful Class Prototype Learning for One-Shot Image
Semantic Segmentation [58.96902899546075]
ワンショットセマンティックイメージセグメンテーションは、1つの注釈付きイメージで新しいクラスのオブジェクト領域を分割することを目的としている。
最近の研究では、テスト時に予想される状況を模倣するために、エピソディクストレーニング戦略を採用している。
エピソードトレーニングにおいて,マルチクラスラベル情報を活用することを提案する。
ネットワークが各カテゴリに対してより意味のある機能を生成するように促すだろう。
論文 参考訳(メタデータ) (2021-02-22T12:07:35Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - PCAMs: Weakly Supervised Semantic Segmentation Using Point Supervision [12.284208932393073]
本稿では,ある点レベルのアノテーションが与えられた画像から意味的セグメンテーションを生成する新しい手法を提案する。
提案するCNNは,通常,地上の真理ラベルの代わりに擬似ラベルを用いて完全に教師される。
提案手法は,PASCAL VOC 2012 データセットを引用した PASCAL VOC 2012 のセマンティックセマンティックセマンティフィケーションのための技術結果の状態を達成し,より強いバウンディングボックスやリスグル管理のための技術手法よりも優れていた。
論文 参考訳(メタデータ) (2020-07-10T21:25:27Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Few-Shot Semantic Segmentation Augmented with Image-Level Weak
Annotations [23.02986307143718]
ショットセマンティックセグメンテーションの最近の進歩は、わずか数ピクセルレベルの注釈付き例によってこの問題に対処している。
私たちのキーとなるアイデアは、イメージレベルのラベル付きデータから知識を融合させることで、クラスのより優れたプロトタイプ表現を学ぶことです。
画像レベルのアノテーションを統合することで,距離空間におけるクラスプロトタイプ表現を学習するための新しいフレームワークPAIAを提案する。
論文 参考訳(メタデータ) (2020-07-03T04:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。