論文の概要: Exposing Semantic Segmentation Failures via Maximum Discrepancy
Competition
- arxiv url: http://arxiv.org/abs/2103.00259v1
- Date: Sat, 27 Feb 2021 16:06:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:42:13.024116
- Title: Exposing Semantic Segmentation Failures via Maximum Discrepancy
Competition
- Title(参考訳): 最大格差競争によるセマンティックセグメンテーション障害の暴露
- Authors: Jiebin Yan, Yu Zhong, Yuming Fang, Zhangyang Wang, Kede Ma
- Abstract要約: オープンビジュアルの世界において,既存の意味セグメンテーション手法の失敗を露呈することで,質問に答える。
モデル改ざんに関するこれまでの研究に触発され、任意に大きい画像セットから始まり、2つのセグメンテーション方法間の差分法(MAD)をMAximizingすることによって、小さな画像セットを自動的にサンプリングします。
選択された画像は、2つの方法のいずれか(または両方)を偽造する最大の可能性を持っている。
また,MADコンペティションにおいて,障害の露呈が困難であるセグメンテーション法について検討した。
- 参考スコア(独自算出の注目度): 102.75463782627791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation is an extensively studied task in computer vision, with
numerous methods proposed every year. Thanks to the advent of deep learning in
semantic segmentation, the performance on existing benchmarks is close to
saturation. A natural question then arises: Does the superior performance on
the closed (and frequently re-used) test sets transfer to the open visual world
with unconstrained variations? In this paper, we take steps toward answering
the question by exposing failures of existing semantic segmentation methods in
the open visual world under the constraint of very limited human labeling
effort. Inspired by previous research on model falsification, we start from an
arbitrarily large image set, and automatically sample a small image set by
MAximizing the Discrepancy (MAD) between two segmentation methods. The selected
images have the greatest potential in falsifying either (or both) of the two
methods. We also explicitly enforce several conditions to diversify the exposed
failures, corresponding to different underlying root causes. A segmentation
method, whose failures are more difficult to be exposed in the MAD competition,
is considered better. We conduct a thorough MAD diagnosis of ten PASCAL VOC
semantic segmentation algorithms. With detailed analysis of experimental
results, we point out strengths and weaknesses of the competing algorithms, as
well as potential research directions for further advancement in semantic
segmentation. The codes are publicly available at
\url{https://github.com/QTJiebin/MAD_Segmentation}.
- Abstract(参考訳): セマンティックセグメンテーションはコンピュータビジョンにおいて広く研究されており、毎年多くの方法が提案されている。
セマンティックセグメンテーションにおけるディープラーニングの出現により、既存のベンチマークのパフォーマンスは飽和に近い。
閉じた(そして頻繁に再使用される)テストの優れたパフォーマンスは、制約のないバリエーションを持つオープンな視覚世界に転送するのですか?
本論文では,非常に限られた人的ラベリングの制約の下で,オープンな視覚世界での既存のセマンティックセグメンテーション手法の失敗を露呈することによって,その質問に答える措置を講じる。
モデル改ざんに関するこれまでの研究に触発され、任意に大きい画像セットから始まり、2つのセグメンテーション方法間の差分法(MAD)をMAximizingすることによって、小さな画像セットを自動的にサンプリングします。
選択された画像は、2つの方法のいずれか(または両方)を偽造する最大の可能性を持っている。
また、異なる根本原因に対応する暴露された障害を多様化するために、いくつかの条件を明示的に実施する。
また,MADコンペティションにおいて,障害の露呈が困難であるセグメンテーション法について検討した。
10個のPASCAL VOCセマンティックセグメンテーションアルゴリズムの徹底したMAD診断を行います。
実験結果の詳細な分析により,競合するアルゴリズムの強みと弱みを指摘し,セマンティックセグメンテーションのさらなる発展に向けた潜在的な研究方向を示す。
コードは \url{https://github.com/QTJiebin/MAD_Segmentation} で公開されている。
関連論文リスト
- Unsupervised Universal Image Segmentation [59.0383635597103]
本稿では,Unsupervised Universal Model (U2Seg) を提案する。
U2Segは、自己教師付きモデルを利用して、これらのセグメンテーションタスクの擬似意味ラベルを生成する。
次に、これらの擬似意味ラベル上でモデルを自己学習し、かなりの性能向上をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:59:04Z) - SegRefiner: Towards Model-Agnostic Segmentation Refinement with Discrete
Diffusion Process [102.18226145874007]
そこで我々は,異なるセグメンテーションモデルによって生成されるオブジェクトマスクの品質を高めるために,SegRefinerと呼ばれるモデルに依存しないソリューションを提案する。
SegRefinerは粗いマスクを入力として取り、離散拡散プロセスを用いてそれらを洗練する。
さまざまな種類の粗いマスクにわたるセグメンテーションメトリックとバウンダリメトリックの両方を一貫して改善する。
論文 参考訳(メタデータ) (2023-12-19T18:53:47Z) - FixMatchSeg: Fixing FixMatch for Semi-Supervised Semantic Segmentation [0.24366811507669117]
セマンティック・メディカル・イメージ・セグメンテーションのための改良されたディープラーニング手法が近年人気を集めている。
リソース制約のある設定では、多くの注釈付き画像を取得することは、主に専門家を必要とするため、非常に難しい。
本研究では,現在最先端の半教師付き分類手法であるFixMatchをセマンティックセグメンテーションタスクに適用し,FixMatchSegを導入する。
論文 参考訳(メタデータ) (2022-07-31T09:14:52Z) - Hypernet-Ensemble Learning of Segmentation Probability for Medical Image
Segmentation with Ambiguous Labels [8.841870931360585]
ディープラーニングのアプローチは、高い偏極ラベルの確率で予測を過信していることで有名です。
これは、人間のアノテーションであっても、固有のラベルのあいまいさを持つ多くのアプリケーションでは望ましくない。
実世界のシナリオにおける性能を犠牲にすることなくセグメント化確率推定を改善する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T14:24:53Z) - Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals [78.12377360145078]
画素埋め込みを学習するために、コントラスト最適化の目的として、予め決められた事前を取り入れた新しい2段階フレームワークを導入する。
これは、プロキシタスクやエンドツーエンドのクラスタリングに依存する既存の作業から大きく逸脱している。
特に、PASCALでラベル付き例の1%だけを用いて学習した表現を微調整すると、7.1% mIoUで教師付き ImageNet の事前トレーニングを上回ります。
論文 参考訳(メタデータ) (2021-02-11T18:54:47Z) - Information-Theoretic Segmentation by Inpainting Error Maximization [30.520622129165456]
画像画素をフォアグラウンドとバックグラウンドにグループ化し,一方のセットの予測可能性を最小限に抑えることを目標とした。
本手法はディープネットワークのトレーニングを含まず,計算量的に安価であり,クラス非依存であり,単一のラベルなし画像に対して単独で適用可能である。
論文 参考訳(メタデータ) (2020-12-14T06:42:27Z) - DEAL: Difficulty-aware Active Learning for Semantic Segmentation [33.96850316081623]
アクティブラーニングは、最も情報に富んだサンプルを見つけることによってラベル付きデータの曖昧さに対処することを目的としている。
本稿では,共通セグメンテーション分枝と意味難易度分枝という2つの分枝からなる意味的難易度学習ネットワークを提案する。
後者のブランチでは、セグメンテーション結果とGTのセグメンテーション誤差を監督することにより、画素単位の確率注意モジュールを導入し、異なるセグメンテーション領域のセグメンテーション困難スコアを学習する。
2つの取得関数は、意味的困難を伴う最も価値のあるサンプルを選択するために考案される。
論文 参考訳(メタデータ) (2020-10-17T03:25:25Z) - Contrastive Rendering for Ultrasound Image Segmentation [59.23915581079123]
米国の画像にシャープな境界がないことは、セグメンテーションに固有の課題である。
我々は,US画像における境界推定を改善するための,新しい,効果的なフレームワークを提案する。
提案手法は最先端の手法より優れており,臨床応用の可能性も高い。
論文 参考訳(メタデータ) (2020-10-10T07:14:03Z) - Causal Intervention for Weakly-Supervised Semantic Segmentation [122.1846968696862]
画像レベルのラベルのみを用いて、より優れたピクセルレベルの擬似マスクを生成することを目指している。
画像,コンテキスト,およびクラスラベル間の因果関係を分析するための構造因果モデルを提案する。
そこで本研究では,画像レベルの分類において,矛盾するバイアスを取り除くためのコンテキスト調整(CONTA)手法を提案する。
論文 参考訳(メタデータ) (2020-09-26T09:26:29Z) - Human-Centered Unsupervised Segmentation Fusion [0.0]
K-Modesクラスタリングに基づく新しいセグメンテーション融合モデルを提案する。
人的真実セグメントを用いた公開データセットから得られた結果は、我々のモデルが人間のセグメンテーションの最先端よりも優れていることを明らかに示している。
論文 参考訳(メタデータ) (2020-07-22T12:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。