論文の概要: Rethinking Semantic Segmentation Evaluation for Explainability and Model
Selection
- arxiv url: http://arxiv.org/abs/2101.08418v1
- Date: Thu, 21 Jan 2021 03:12:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 07:57:05.920055
- Title: Rethinking Semantic Segmentation Evaluation for Explainability and Model
Selection
- Title(参考訳): 説明可能性とモデル選択のためのセマンティックセグメンテーション評価の再考
- Authors: Yuxiang Zhang, Sachin Mehta, Anat Caspi
- Abstract要約: 地域ベースのオーバーおよびアンダーセグメンテーションを評価するための新しいメトリクスを紹介します。
分析して他のメトリクスと比較し、実世界のアプリケーションにおけるセマンティックセグメンテーションモデルのパフォーマンスをより説明しやすくなることを示す。
- 参考スコア(独自算出の注目度): 12.786648212233116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation aims to robustly predict coherent class labels for
entire regions of an image. It is a scene understanding task that powers
real-world applications (e.g., autonomous navigation). One important
application, the use of imagery for automated semantic understanding of
pedestrian environments, provides remote mapping of accessibility features in
street environments. This application (and others like it) require detailed
geometric information of geographical objects. Semantic segmentation is a
prerequisite for this task since it maps contiguous regions of the same class
as single entities. Importantly, semantic segmentation uses like ours are not
pixel-wise outcomes; however, most of their quantitative evaluation metrics
(e.g., mean Intersection Over Union) are based on pixel-wise similarities to a
ground-truth, which fails to emphasize over- and under-segmentation properties
of a segmentation model. Here, we introduce a new metric to assess region-based
over- and under-segmentation. We analyze and compare it to other metrics,
demonstrating that the use of our metric lends greater explainability to
semantic segmentation model performance in real-world applications.
- Abstract(参考訳): セマンティックセグメンテーションは、画像の領域全体のコヒーレントなクラスラベルを堅牢に予測することを目的としている。
これは実世界のアプリケーション(例えば自律ナビゲーション)を動かすシーン理解タスクである。
歩行者環境の自動意味理解のための画像の使用は、道路環境におけるアクセシビリティ機能のリモートマッピングを提供する。
このアプリケーション(およびそのように)は、地理的対象の詳細な幾何学的情報を必要とする。
セマンティクスセグメンテーションは、単一のエンティティと同じクラスの連続した領域をマップするため、このタスクの前提条件である。
重要なことに、私たちのような意味的セグメンテーションの使用はピクセル単位の成果ではない。しかし、それらの定量的評価指標(例えば、結合の平均交点)のほとんどは、セグメンテーションモデルのオーバーセグメンテーション特性とアンダーセグメンテーション特性の強調に失敗している。
本稿では,地域別オーバー・アンダー・セグメンテーションを評価するための新しい指標を提案する。
分析して他のメトリクスと比較し、実世界のアプリケーションにおけるセマンティックセグメンテーションモデルのパフォーマンスをより説明しやすくなることを示す。
関連論文リスト
- RoboHop: Segment-based Topological Map Representation for Open-World Visual Navigation [18.053914853235142]
画像セグメントに基づく新しい環境表現を提案する。
3次元シーングラフとは異なり、セグメントをノードとする純粋に位相グラフを作成する。
これはセグメント間の永続性によって定義される「場所の連続的な感覚」を明らかにする。
論文 参考訳(メタデータ) (2024-05-09T14:17:26Z) - Semantic Segmentation by Semantic Proportions [6.171990546748665]
セマンティック・セグメンテーションのための新しい手法を提案し、個々のセマンティック・クラス比の粗い情報を必要とする。
これにより、データアノテーションプロセスが大幅に単純化され、アノテーションの時間、コスト、ストレージスペースが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-24T22:51:52Z) - Unsupervised Domain Adaptation for Medical Image Segmentation via
Feature-space Density Matching [0.0]
本稿ではセマンティックセグメンテーションのための教師なしドメイン適応手法を提案する。
対象データ分布を特徴空間のソースとマッチングする。
提案手法の有効性を2つのデータセット,多部位前立腺MRI,病理組織像に示す。
論文 参考訳(メタデータ) (2023-05-09T22:24:46Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - SemAffiNet: Semantic-Affine Transformation for Point Cloud Segmentation [94.11915008006483]
ポイントクラウドセマンティックセグメンテーションのためのSemAffiNetを提案する。
我々はScanNetV2とNYUv2データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-26T17:00:23Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - TransFGU: A Top-down Approach to Fine-Grained Unsupervised Semantic
Segmentation [44.75300205362518]
教師なしセマンティックセグメンテーションは、手動のアノテーションを使わずに、低レベルの視覚的特徴の高レベルセマンティック表現を得ることを目的としている。
本稿では, 非常に複雑なシナリオにおける細粒度セグメンテーションのための, トップダウンの教師なしセグメンテーションフレームワークを提案する。
我々の結果は、トップダウンの教師なしセグメンテーションが、オブジェクト中心とシーン中心の両方のデータセットに対して堅牢であることを示している。
論文 参考訳(メタデータ) (2021-12-02T18:59:03Z) - Robust 3D Scene Segmentation through Hierarchical and Learnable
Part-Fusion [9.275156524109438]
3Dセマンティックセグメンテーションは、自律運転、ロボット工学、AR/VRといったいくつかのシーン理解アプリケーションのための基本的なビルディングブロックである。
従来の手法では、階層的で反復的な手法を用いて意味や事例情報を融合するが、文脈融合における学習性は欠如している。
本稿では,セグメンテーション・フュージョン(Seegment-Fusion)について述べる。
論文 参考訳(メタデータ) (2021-11-16T13:14:47Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - SceneEncoder: Scene-Aware Semantic Segmentation of Point Clouds with A
Learnable Scene Descriptor [51.298760338410624]
本研究では,グローバル情報の効果を高めるために,シーン認識型ガイダンスを付加するSceneEncoderモジュールを提案する。
モジュールはシーン記述子を予測し、シーンに存在するオブジェクトのカテゴリを表現することを学習する。
また,同じラベルを持つ隣接点に対する特徴の識別を伝搬する領域類似度損失を設計する。
論文 参考訳(メタデータ) (2020-01-24T16:53:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。