論文の概要: SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation
- arxiv url: http://arxiv.org/abs/2104.14812v1
- Date: Fri, 30 Apr 2021 07:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 13:40:03.735841
- Title: SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation
- Title(参考訳): SegmentMeIfYouCan: 異常セグメンテーションのベンチマーク
- Authors: Robin Chan, Krzysztof Lis, Svenja Uhlemeyer, Hermann Blum, Sina
Honari, Roland Siegwart, Mathieu Salzmann, Pascal Fua and Matthias Rottmann
- Abstract要約: ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
- 参考スコア(独自算出の注目度): 111.61261419566908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art semantic or instance segmentation deep neural networks
(DNNs) are usually trained on a closed set of semantic classes. As such, they
are ill-equipped to handle previously-unseen objects. However, detecting and
localizing such objects is crucial for safety-critical applications such as
perception for automated driving, especially if they appear on the road ahead.
While some methods have tackled the tasks of anomalous or out-of-distribution
object segmentation, progress remains slow, in large part due to the lack of
solid benchmarks; existing datasets either consist of synthetic data, or suffer
from label inconsistencies. In this paper, we bridge this gap by introducing
the "SegmentMeIfYouCan" benchmark. Our benchmark addresses two tasks: Anomalous
object segmentation, which considers any previously-unseen object category; and
road obstacle segmentation, which focuses on any object on the road, may it be
known or unknown. We provide two corresponding datasets together with a test
suite performing an in-depth method analysis, considering both established
pixel-wise performance metrics and recent component-wise ones, which are
insensitive to object sizes. We empirically evaluate multiple state-of-the-art
baseline methods, including several specifically designed for anomaly /
obstacle segmentation, on our datasets as well as on public ones, using our
benchmark suite. The anomaly and obstacle segmentation results show that our
datasets contribute to the diversity and challengingness of both dataset
landscapes.
- Abstract(参考訳): state-of-the-art semantic or instance segmentation deep neural networks (dnn)は通常、閉じたセマンティッククラスでトレーニングされる。
そのため、それまで見つからなかったオブジェクトを扱うには不備がある。
しかし,このような物体の検出と位置決めは,特に前方の道路に現れる場合には,自動走行の認識などの安全上重要な応用に不可欠である。
いくつかのメソッドは、異常あるいは分散外オブジェクトのセグメンテーションのタスクに取り組んだが、大部分が堅実なベンチマークの欠如のため、進捗は遅く、既存のデータセットは合成データで構成されているか、ラベルの不一致に苦しめられている。
本稿では,このギャップを埋めるために"segmentmeifyoucan"ベンチマークを導入する。
我々のベンチマークでは, 未確認のオブジェクトカテゴリを考慮に入れた異常なオブジェクトセグメンテーションと, 道路上の任意のオブジェクトに焦点を当てた道路障害物セグメンテーションの2つのタスクに対処する。
2つの対応するデータセットと、オブジェクトサイズに敏感な、確立されたピクセル単位のパフォーマンス指標と最近のコンポーネント単位の両方を考慮して、詳細なメソッド分析を行うテストスイートを提供する。
私たちは、ベンチマークスイートを使用して、データセットだけでなくパブリックなデータでも、異常/障害セグメンテーション用に特別に設計されたいくつかのメソッドを含む、最先端の複数のベースラインメソッドを経験的に評価しました。
異常および障害物セグメンテーションの結果は、データセットが両方のデータセットランドスケープの多様性と課題に寄与していることを示している。
関連論文リスト
- ISAR: A Benchmark for Single- and Few-Shot Object Instance Segmentation
and Re-Identification [24.709695178222862]
単発および少数発のオブジェクト識別のためのベンチマークおよびベースライン手法であるISARを提案する。
地層構造意味アノテーションを用いた半合成的ビデオシーケンスデータセットを提供する。
我々のベンチマークは、マルチオブジェクト追跡、ビデオオブジェクト、再識別の新たな研究動向と一致している。
論文 参考訳(メタデータ) (2023-11-05T18:51:33Z) - BURST: A Benchmark for Unifying Object Recognition, Segmentation and
Tracking in Video [58.71785546245467]
複数の既存のベンチマークには、ビデオ内のオブジェクトのトラッキングとセグメンテーションが含まれる。
異なるベンチマークデータセットとメトリクスを使用するため、それらの相互作用はほとんどありません。
高品質なオブジェクトマスクを備えた数千の多様なビデオを含むデータセットであるBURSTを提案する。
すべてのタスクは、同じデータと同等のメトリクスを使って評価されます。
論文 参考訳(メタデータ) (2022-09-25T01:27:35Z) - Segmenting Known Objects and Unseen Unknowns without Prior Knowledge [86.46204148650328]
全体論的セグメンテーションは、目に見えない未知のカテゴリのオブジェクトを、それに関する事前の知識なしにインスタンスに識別し、分離することを目的としている。
U3HSでは、未知の領域を極めて不確実な領域として見つけ、対応するインスタンス認識の埋め込みを個々のオブジェクトにクラスタ化する。
MS、Cityscapes、Lost&Foundの公開データに関する実験は、U3HSの有効性を実証している。
論文 参考訳(メタデータ) (2022-09-12T16:59:36Z) - The devil is in the labels: Semantic segmentation from sentences [106.52405522077841]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - Video Class Agnostic Segmentation Benchmark for Autonomous Driving [13.312978643938202]
特定の安全クリティカルなロボティクスアプリケーションでは、トレーニング時に未知のものを含むすべてのオブジェクトを分割することが重要です。
自律運転における単眼ビデオシーケンスから未知の物体を考慮に入れたビデオクラスセグメンテーションのタスクを定式化する。
論文 参考訳(メタデータ) (2021-03-19T20:41:40Z) - PointFlow: Flowing Semantics Through Points for Aerial Image
Segmentation [96.76882806139251]
本論文では,FPN(Feature Pyramid Network)フレームワークに基づく点親和性伝播モジュールであるPointFlowを提案する。
密接な親和性学習ではなく、隣接する特徴間の選択された点にスパース親和性マップを生成する。
3つの異なる空中セグメンテーションデータセットの実験結果から,提案手法は最先端の汎用セグメンテーション法よりも効率的かつ効率的であることが示唆された。
論文 参考訳(メタデータ) (2021-03-11T09:42:32Z) - Rethinking Semantic Segmentation Evaluation for Explainability and Model
Selection [12.786648212233116]
地域ベースのオーバーおよびアンダーセグメンテーションを評価するための新しいメトリクスを紹介します。
分析して他のメトリクスと比較し、実世界のアプリケーションにおけるセマンティックセグメンテーションモデルのパフォーマンスをより説明しやすくなることを示す。
論文 参考訳(メタデータ) (2021-01-21T03:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。