論文の概要: SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation
- arxiv url: http://arxiv.org/abs/2104.14812v1
- Date: Fri, 30 Apr 2021 07:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 13:40:03.735841
- Title: SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation
- Title(参考訳): SegmentMeIfYouCan: 異常セグメンテーションのベンチマーク
- Authors: Robin Chan, Krzysztof Lis, Svenja Uhlemeyer, Hermann Blum, Sina
Honari, Roland Siegwart, Mathieu Salzmann, Pascal Fua and Matthias Rottmann
- Abstract要約: ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
- 参考スコア(独自算出の注目度): 111.61261419566908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art semantic or instance segmentation deep neural networks
(DNNs) are usually trained on a closed set of semantic classes. As such, they
are ill-equipped to handle previously-unseen objects. However, detecting and
localizing such objects is crucial for safety-critical applications such as
perception for automated driving, especially if they appear on the road ahead.
While some methods have tackled the tasks of anomalous or out-of-distribution
object segmentation, progress remains slow, in large part due to the lack of
solid benchmarks; existing datasets either consist of synthetic data, or suffer
from label inconsistencies. In this paper, we bridge this gap by introducing
the "SegmentMeIfYouCan" benchmark. Our benchmark addresses two tasks: Anomalous
object segmentation, which considers any previously-unseen object category; and
road obstacle segmentation, which focuses on any object on the road, may it be
known or unknown. We provide two corresponding datasets together with a test
suite performing an in-depth method analysis, considering both established
pixel-wise performance metrics and recent component-wise ones, which are
insensitive to object sizes. We empirically evaluate multiple state-of-the-art
baseline methods, including several specifically designed for anomaly /
obstacle segmentation, on our datasets as well as on public ones, using our
benchmark suite. The anomaly and obstacle segmentation results show that our
datasets contribute to the diversity and challengingness of both dataset
landscapes.
- Abstract(参考訳): state-of-the-art semantic or instance segmentation deep neural networks (dnn)は通常、閉じたセマンティッククラスでトレーニングされる。
そのため、それまで見つからなかったオブジェクトを扱うには不備がある。
しかし,このような物体の検出と位置決めは,特に前方の道路に現れる場合には,自動走行の認識などの安全上重要な応用に不可欠である。
いくつかのメソッドは、異常あるいは分散外オブジェクトのセグメンテーションのタスクに取り組んだが、大部分が堅実なベンチマークの欠如のため、進捗は遅く、既存のデータセットは合成データで構成されているか、ラベルの不一致に苦しめられている。
本稿では,このギャップを埋めるために"segmentmeifyoucan"ベンチマークを導入する。
我々のベンチマークでは, 未確認のオブジェクトカテゴリを考慮に入れた異常なオブジェクトセグメンテーションと, 道路上の任意のオブジェクトに焦点を当てた道路障害物セグメンテーションの2つのタスクに対処する。
2つの対応するデータセットと、オブジェクトサイズに敏感な、確立されたピクセル単位のパフォーマンス指標と最近のコンポーネント単位の両方を考慮して、詳細なメソッド分析を行うテストスイートを提供する。
私たちは、ベンチマークスイートを使用して、データセットだけでなくパブリックなデータでも、異常/障害セグメンテーション用に特別に設計されたいくつかのメソッドを含む、最先端の複数のベースラインメソッドを経験的に評価しました。
異常および障害物セグメンテーションの結果は、データセットが両方のデータセットランドスケープの多様性と課題に寄与していることを示している。
関連論文リスト
- Segmenting Object Affordances: Reproducibility and Sensitivity to Scale [27.277739855754447]
セマンティックセグメンテーションのための学習に基づくアーキテクチャを、アベイランスセグメンテーションタスクに再利用し、適応する手法。
2つの単一オブジェクトのシナリオで再現可能な設定でこれらのメソッドをベンチマークする。
我々の分析は、オブジェクトの解像度がトレーニングセットと異なる場合、モデルは変動をスケールするのに堅牢ではないことを示している。
論文 参考訳(メタデータ) (2024-09-03T11:54:36Z) - OoDIS: Anomaly Instance Segmentation Benchmark [57.89836988990543]
我々は、最もよく使われる異常セグメンテーションベンチマークを拡張して、インスタンスセグメンテーションタスクを含める。
この分野の開発は遅れており、主に専用のベンチマークがないためである。
異常なインスタンスセグメンテーション手法の評価は、この課題が未解決の問題のままであることを示している。
論文 参考訳(メタデータ) (2024-06-17T17:59:56Z) - Frequency-based Matcher for Long-tailed Semantic Segmentation [22.199174076366003]
我々は、比較的未探索なタスク設定、長い尾のセマンティックセマンティックセグメンテーション(LTSS)に焦点を当てる。
本稿では,セマンティックセグメンテーション手法と長鎖解の性能を示すために,二値評価システムを提案し,LTSSベンチマークを構築した。
また,1対1のマッチングによって過剰な圧縮問題を解決する周波数ベースのマーカであるLTSSを改善するトランスフォーマーベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-06T09:57:56Z) - ISAR: A Benchmark for Single- and Few-Shot Object Instance Segmentation
and Re-Identification [24.709695178222862]
単発および少数発のオブジェクト識別のためのベンチマークおよびベースライン手法であるISARを提案する。
地層構造意味アノテーションを用いた半合成的ビデオシーケンスデータセットを提供する。
我々のベンチマークは、マルチオブジェクト追跡、ビデオオブジェクト、再識別の新たな研究動向と一致している。
論文 参考訳(メタデータ) (2023-11-05T18:51:33Z) - BURST: A Benchmark for Unifying Object Recognition, Segmentation and
Tracking in Video [58.71785546245467]
複数の既存のベンチマークには、ビデオ内のオブジェクトのトラッキングとセグメンテーションが含まれる。
異なるベンチマークデータセットとメトリクスを使用するため、それらの相互作用はほとんどありません。
高品質なオブジェクトマスクを備えた数千の多様なビデオを含むデータセットであるBURSTを提案する。
すべてのタスクは、同じデータと同等のメトリクスを使って評価されます。
論文 参考訳(メタデータ) (2022-09-25T01:27:35Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - Video Class Agnostic Segmentation Benchmark for Autonomous Driving [13.312978643938202]
特定の安全クリティカルなロボティクスアプリケーションでは、トレーニング時に未知のものを含むすべてのオブジェクトを分割することが重要です。
自律運転における単眼ビデオシーケンスから未知の物体を考慮に入れたビデオクラスセグメンテーションのタスクを定式化する。
論文 参考訳(メタデータ) (2021-03-19T20:41:40Z) - PointFlow: Flowing Semantics Through Points for Aerial Image
Segmentation [96.76882806139251]
本論文では,FPN(Feature Pyramid Network)フレームワークに基づく点親和性伝播モジュールであるPointFlowを提案する。
密接な親和性学習ではなく、隣接する特徴間の選択された点にスパース親和性マップを生成する。
3つの異なる空中セグメンテーションデータセットの実験結果から,提案手法は最先端の汎用セグメンテーション法よりも効率的かつ効率的であることが示唆された。
論文 参考訳(メタデータ) (2021-03-11T09:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。