論文の概要: Uncertainty-aware Panoptic Segmentation
- arxiv url: http://arxiv.org/abs/2206.14554v1
- Date: Wed, 29 Jun 2022 12:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-30 21:05:05.698710
- Title: Uncertainty-aware Panoptic Segmentation
- Title(参考訳): 不確かさを意識したPanoptic Segmentation
- Authors: Kshitij Sirohi, Sajad Marvi, Daniel B\"uscher, Wolfram Burgard
- Abstract要約: 本稿では,不確実性を考慮したパノプティックセグメンテーションの課題を紹介する。
ピクセルごとのセマンティクスとインスタンスのセグメンテーションを予測し、画素ごとの不確実性を推定する。
本稿では,この課題を解決するために,トップダウンのエビデンシャル・パノプティクス・ネットワーク(EvPSNet)を提案する。
- 参考スコア(独自算出の注目度): 21.89063036529791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable scene understanding is indispensable for modern autonomous systems.
Current learning-based methods typically try to maximize their performance
based on segmentation metrics that only consider the quality of the
segmentation. However, for the safe operation of a system in the real world it
is crucial to consider the uncertainty in the prediction as well. In this work,
we introduce the novel task of uncertainty-aware panoptic segmentation, which
aims to predict per-pixel semantic and instance segmentations, together with
per-pixel uncertainty estimates. We define two novel metrics to facilitate its
quantitative analysis, the uncertainty-aware Panoptic Quality (uPQ) and the
panoptic Expected Calibration Error (pECE). We further propose the novel
top-down Evidential Panoptic Segmentation Network (EvPSNet) to solve this task.
Our architecture employs a simple yet effective probabilistic fusion module
that leverages the predicted uncertainties. Additionally, we propose a new
Lov\'asz evidential loss function to optimize the IoU for the segmentation
utilizing the probabilities provided by deep evidential learning. Furthermore,
we provide several strong baselines combining state-of-the-art panoptic
segmentation networks with sampling-free uncertainty estimation techniques.
Extensive evaluations show that our EvPSNet achieves the new state-of-the-art
for the standard Panoptic Quality (PQ), as well as for our uncertainty-aware
panoptic metrics.
- Abstract(参考訳): 現代の自律システムでは、信頼できるシーン理解が不可欠である。
現在の学習ベースのメソッドは通常、セグメンテーションの品質のみを考慮したセグメンテーションメトリクスに基づいてパフォーマンスを最大化しようとする。
しかし,実世界のシステムの安全な運用には,予測の不確実性も考慮する必要がある。
本研究では,画素単位のセグメンテーションとインスタンス単位のセグメンテーションを予測し,画素単位のセグメンテーションを推定することを目的とした,不確実性認識型パンオプティクスセグメンテーションの新たなタスクを提案する。
そこで我々は,その定量分析を容易にするための2つの新しい指標,不確実性を認識したパノプティクス品質(uPQ)とパノプティクス予測校正誤差(pECE)を定義した。
我々はさらに,この課題を解決するために,新しいtop-down obviousal panoptic segmentation network (evpsnet)を提案する。
我々のアーキテクチャは、予測された不確実性を利用する単純だが効果的な確率的融合モジュールを採用している。
さらに, 深層学習による確率を利用したセグメンテーションのために, IoU を最適化する Lov\'asz の顕在的損失関数を提案する。
さらに,最先端のパノプティックセグメンテーションネットワークとサンプリング不要な不確実性推定手法を組み合わせた,いくつかの強力なベースラインを提供する。
広範な評価から、evpsnet は標準 panoptic quality (pq) と不確実性を認識したpanoptic metrics の新たな最先端技術を実現しています。
関連論文リスト
- Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Uncertainty Quantification for Bird's Eye View Semantic Segmentation: Methods and Benchmarks [10.193504550494486]
本稿では,BEVセグメンテーションにおける予測不確実性定量化のためのベンチマークを提案する。
誤分類および非分布画素の識別における予測不確実性の有効性と校正に焦点が当てられている。
本研究では,不均衡なデータに対する不確実性-局所-クロス-エントロピー損失を提案し,セグメンテーションの品質とキャリブレーションを継続的に改善する。
論文 参考訳(メタデータ) (2024-05-31T16:32:46Z) - Segmentation Re-thinking Uncertainty Estimation Metrics for Semantic Segmentation [12.532289778772185]
セマンティックセグメンテーションは機械学習の基本的な応用である。
画像セグメンテーションタスクにおけるエントロピーに基づく不確実性を評価するための特殊なツールとしてPAvPU(パッチ精度対パッチ不確実性)が開発された。
本研究は,PAvPUフレームワークの中核となる3つの欠陥を同定し,ロバストな解を提案する。
論文 参考訳(メタデータ) (2024-03-28T20:34:02Z) - ProPanDL: A Modular Architecture for Uncertainty-Aware Panoptic
Segmentation [0.0]
本稿では,不確実性を考慮したパノプティックセグメンテーションが可能なネットワークであるProPanDLを紹介する。
パラメトリック(分散ネットワーク)とパラメータフリー(サンプルネット)の両方を推定できるProPanDL変種を実装し,評価する。
以上の結果から, ProPanDLは, 高い性能を維持しつつ, 高い校正, 有意な出力分布を推定できることを示した。
論文 参考訳(メタデータ) (2023-04-17T22:31:23Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Uncertainty-aware LiDAR Panoptic Segmentation [21.89063036529791]
本稿では,LiDAR点雲を用いた不確実性を考慮したパノプティックセグメンテーションの課題を解決するための新しいアプローチを提案する。
提案するEvLPSNetネットワークは,この課題をサンプリング不要で効率的に解決する最初の方法である。
我々は、最先端のパン光学セグメンテーションネットワークとサンプリング不要不確実性推定技術を組み合わせた、いくつかの強力なベースラインを提供する。
論文 参考訳(メタデータ) (2022-10-10T07:54:57Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - The Benefit of the Doubt: Uncertainty Aware Sensing for Edge Computing
Platforms [10.86298377998459]
組込みエッジシステム上に展開されたNNにおける予測不確実性推定のための効率的なフレームワークを提案する。
フレームワークは1つのフォワードパスのみに基づいて予測の不確実性を提供するために、ゼロから構築されている。
提案手法は, 堅牢かつ正確な不確実性推定だけでなく, システム性能の点で最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-02-11T11:44:32Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。