論文の概要: Multi-Scale Foreground-Background Confidence for Out-of-Distribution Segmentation
- arxiv url: http://arxiv.org/abs/2412.16990v1
- Date: Sun, 22 Dec 2024 12:09:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:58:13.125225
- Title: Multi-Scale Foreground-Background Confidence for Out-of-Distribution Segmentation
- Title(参考訳): アウト・オブ・ディストリビューション・セグメンテーションのためのマルチスケール前景信頼度
- Authors: Samuel Marschall, Kira Maag,
- Abstract要約: 本研究では,前景-背景セグメントモデルの信頼性情報を利用するマルチスケールOODセグメンテーション手法を提案する。
モデル予測の画素毎の信頼スコアは,前景オブジェクトの画素に対して1に近い。
異なるサイズのパッチに対してこれらの信頼値を集約することにより、さまざまなサイズのオブジェクトを単一のイメージで識別することができる。
- 参考スコア(独自算出の注目度): 0.36832029288386137
- License:
- Abstract: Deep neural networks have shown outstanding performance in computer vision tasks such as semantic segmentation and have defined the state-of-the-art. However, these segmentation models are trained on a closed and predefined set of semantic classes, which leads to significant prediction failures in open-world scenarios on unknown objects. As this behavior prevents the application in safety-critical applications such as automated driving, the detection and segmentation of these objects from outside their predefined semantic space (out-of-distribution (OOD) objects) is of the utmost importance. In this work, we present a multi-scale OOD segmentation method that exploits the confidence information of a foreground-background segmentation model. While semantic segmentation models are trained on specific classes, this restriction does not apply to foreground-background methods making them suitable for OOD segmentation. We consider the per pixel confidence score of the model prediction which is close to 1 for a pixel in a foreground object. By aggregating these confidence values for different sized patches, objects of various sizes can be identified in a single image. Our experiments show improved performance of our method in OOD segmentation compared to comparable baselines in the SegmentMeIfYouCan benchmark.
- Abstract(参考訳): ディープニューラルネットワークはセマンティックセグメンテーションなどのコンピュータビジョンタスクにおいて優れたパフォーマンスを示し、最先端技術を定義している。
しかし、これらのセグメンテーションモデルは、クローズドで事前定義されたセマンティッククラスに基づいて訓練されており、未知のオブジェクト上のオープンワールドシナリオにおいて重大な予測失敗を引き起こす。
この動作は、自動運転のような安全クリティカルなアプリケーションにおける適用を妨げるため、これらのオブジェクトの検知とセグメンテーションが、定義済みの意味空間(out-of-distribution (OOD) オブジェクト)の外側から最も重要である。
本研究では,フォアグラウンド・バックグラウンド・セグメンテーションモデルの信頼性情報を利用したマルチスケールOODセグメンテーション手法を提案する。
セマンティックセグメンテーションモデルは特定のクラスで訓練されるが、この制限はOODセグメンテーションに適したフォアグラウンドバックグラウンドメソッドには適用されない。
モデル予測の画素毎の信頼スコアは,前景オブジェクトの画素に対して1に近い。
異なるサイズのパッチに対してこれらの信頼値を集約することにより、さまざまなサイズのオブジェクトを単一のイメージで識別することができる。
実験の結果,OODセグメンテーションにおける手法の性能は,SegmentMeIfYouCanベンチマークに比較して向上した。
関連論文リスト
- Pixel-Level Domain Adaptation: A New Perspective for Enhancing Weakly Supervised Semantic Segmentation [13.948425538725138]
画素単位の領域不変性を学習する際のモデルとして,Pixel-Level Domain Adaptation (PLDA)法を提案する。
我々は,幅広い環境下でのアプローチの有効性を実験的に実証した。
論文 参考訳(メタデータ) (2024-08-04T14:14:54Z) - Pixel-wise Gradient Uncertainty for Convolutional Neural Networks
applied to Out-of-Distribution Segmentation [0.43512163406552007]
本稿では,推定時に効率よく計算できる画素単位の損失勾配から不確実点を求める手法を提案する。
本実験は,提案手法が誤った画素分類を識別し,無視可能な計算オーバーヘッドで予測品質を推定する能力を示す。
論文 参考訳(メタデータ) (2023-03-13T08:37:59Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - Prototype Guided Network for Anomaly Segmentation [5.504546777149307]
In-distriion training data のためのセマンティックプロトタイプを抽出するために, PGAN (Prototype Guided Anomaly segmentation Network) を提案する。
提案したPGANモデルはセマンティックセグメンテーションネットワークとプロトタイプ抽出ネットワークを含む。
StreetHazardsデータセットでは、提案されたPGANモデルは、異常セグメンテーションのためのmIoUを53.4%生成した。
論文 参考訳(メタデータ) (2022-01-15T15:07:38Z) - Uncertainty Aware Proposal Segmentation for Unknown Object Detection [13.249453757295083]
本稿では,セマンティックセグメンテーションモデルのさらなる予測と信頼性の定量化を提案する。
本研究では,地域提案ネットワーク(RPN)が生成するオブジェクト提案を用いて,セマンティックセグメンテーションの精度評価を行う。
拡張オブジェクトの提案は、未知のオブジェクトカテゴリと未知のオブジェクトカテゴリの分類器をトレーニングするために使用される。
論文 参考訳(メタデータ) (2021-11-25T01:53:05Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals [78.12377360145078]
画素埋め込みを学習するために、コントラスト最適化の目的として、予め決められた事前を取り入れた新しい2段階フレームワークを導入する。
これは、プロキシタスクやエンドツーエンドのクラスタリングに依存する既存の作業から大きく逸脱している。
特に、PASCALでラベル付き例の1%だけを用いて学習した表現を微調整すると、7.1% mIoUで教師付き ImageNet の事前トレーニングを上回ります。
論文 参考訳(メタデータ) (2021-02-11T18:54:47Z) - SOSD-Net: Joint Semantic Object Segmentation and Depth Estimation from
Monocular images [94.36401543589523]
これら2つのタスクの幾何学的関係を利用するための意味的対象性の概念を紹介します。
次に, 対象性仮定に基づくセマンティックオブジェクト・深さ推定ネットワーク(SOSD-Net)を提案する。
私たちの知識を最大限に活用するために、SOSD-Netは同時単眼深度推定とセマンティックセグメンテーションのためのジオメトリ制約を利用する最初のネットワークです。
論文 参考訳(メタデータ) (2021-01-19T02:41:03Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。