論文の概要: Video Class Agnostic Segmentation Benchmark for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2103.11015v1
- Date: Fri, 19 Mar 2021 20:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 05:41:22.357350
- Title: Video Class Agnostic Segmentation Benchmark for Autonomous Driving
- Title(参考訳): 自動運転のためのビデオクラス非依存セグメンテーションベンチマーク
- Authors: Mennatullah Siam, Alex Kendall, Martin Jagersand
- Abstract要約: 特定の安全クリティカルなロボティクスアプリケーションでは、トレーニング時に未知のものを含むすべてのオブジェクトを分割することが重要です。
自律運転における単眼ビデオシーケンスから未知の物体を考慮に入れたビデオクラスセグメンテーションのタスクを定式化する。
- 参考スコア(独自算出の注目度): 13.312978643938202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic segmentation approaches are typically trained on large-scale data
with a closed finite set of known classes without considering unknown objects.
In certain safety-critical robotics applications, especially autonomous
driving, it is important to segment all objects, including those unknown at
training time. We formalize the task of video class agnostic segmentation from
monocular video sequences in autonomous driving to account for unknown objects.
Video class agnostic segmentation can be formulated as an open-set or a motion
segmentation problem. We discuss both formulations and provide datasets and
benchmark different baseline approaches for both tracks. In the
motion-segmentation track we benchmark real-time joint panoptic and motion
instance segmentation, and evaluate the effect of ego-flow suppression. In the
open-set segmentation track we evaluate baseline methods that combine
appearance, and geometry to learn prototypes per semantic class. We then
compare it to a model that uses an auxiliary contrastive loss to improve the
discrimination between known and unknown objects. All datasets and models are
publicly released at https://msiam.github.io/vca/.
- Abstract(参考訳): セマンティックセグメンテーションアプローチは通常、未知のオブジェクトを考慮せずに、閉じた有限個の既知のクラスを持つ大規模データで訓練される。
特定の安全クリティカルなロボットアプリケーション、特に自動運転では、トレーニング時に未知のものを含め、すべてのオブジェクトを分割することが重要である。
自律運転における単眼映像列から未知物体へのビデオクラス非依存セグメンテーションのタスクを定式化する。
ビデオクラス非依存セグメンテーションは、オープンセットまたはモーションセグメンテーション問題として定式化することができる。
両方の定式化を議論し、データセットを提供し、両方のトラックに対して異なるベースラインアプローチをベンチマークする。
モーションセグメンテーショントラックでは,リアルタイムジョイントパンオプティカルとモーションインスタンスセグメンテーションのベンチマークを行い,エゴフロー抑制の効果を評価した。
オープンセットセグメンテーショントラックでは、外観と幾何学を組み合わせたベースライン手法を評価し、セマンティッククラスごとのプロトタイプを学習する。
次に、これを補助的なコントラスト損失を用いて既知のオブジェクトと未知のオブジェクトの識別を改善するモデルと比較する。
すべてのデータセットとモデルがhttps://msiam.github.io/vca/で公開されている。
関連論文リスト
- Lidar Panoptic Segmentation in an Open World [50.094491113541046]
ライダーパノプティクス(LPS)は自動運転車の安全な配備に不可欠である。
LPSは、セマンティッククラスの事前に定義された語彙であるライダーポイントを認識し、セグメント化することを目的としている。
階層的な方法で入力クラウドのクラスタリングとオーバーセグメンテーションを提案し,次にバイナリポイントセグメント分類を行う。
論文 参考訳(メタデータ) (2024-09-22T00:10:20Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Tracking Anything with Decoupled Video Segmentation [87.07258378407289]
我々はデカップリングビデオセグメンテーションアプローチ(DEVA)を開発した。
タスク固有のイメージレベルセグメンテーションと、クラス/タスク非依存の双方向の時間的伝搬で構成されている。
この分離された定式化は、複数のデータスカースタスクにおけるエンドツーエンドのアプローチと良好に比較できることを示す。
論文 参考訳(メタデータ) (2023-09-07T17:59:41Z) - Segment Anything Meets Point Tracking [116.44931239508578]
本稿では,SAMと長期点追跡を併用した,ポイント中心の対話型ビデオセグメンテーションの新たな手法を提案する。
ゼロショットオープンワールドUnidentified Video Objects(UVO)ベンチマークで直接評価することで,ポイントベーストラッキングのメリットを強調した。
DAVIS, YouTube-VOS, BDD100Kなどの人気ビデオオブジェクトのセグメンテーションと多目的セグメンテーションのベンチマーク実験により, ポイントベースセグメンテーショントラッカーがより優れたゼロショット性能と効率的なインタラクションをもたらすことが示唆された。
論文 参考訳(メタデータ) (2023-07-03T17:58:01Z) - Video Class Agnostic Segmentation with Contrastive Learning for
Autonomous Driving [13.312978643938202]
既知のクラスと未知のオブジェクトのセグメンテーションを学ぶために,新しい補助的なコントラスト損失を提案する。
画像レベルでアンカー,ポジティブ,負の例をサンプリングするコントラスト学習の以前の研究とは異なり,コントラスト学習法はピクセル単位の意味的および時間的指導を活用している。
我々は、異なる未知のオブジェクトを含む異なる自律運転シナリオのための大規模な合成データセットをリリースする。
論文 参考訳(メタデータ) (2021-05-07T23:07:06Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - Highway Driving Dataset for Semantic Video Segmentation [31.198877342304876]
本稿では,セマンティックビデオセグメンテーションタスクのベンチマークであるハイウェイ・ドライビング・データセットについて紹介する。
時間相関を用いたベースラインアルゴリズムを提案する。
時間的相関を解析する試みとともに、ハイウェイ・ドライビング・データセットが意味的ビデオセグメンテーションの研究を促進することを期待する。
論文 参考訳(メタデータ) (2020-11-02T01:50:52Z) - Self-supervised Sparse to Dense Motion Segmentation [13.888344214818737]
単一ビデオフレームからスパース動作セグメントの密度化を学習するための自己教師付き手法を提案する。
FBMS59 と DAVIS16 でよく知られた動作セグメンテーションデータセットについて検討した。
論文 参考訳(メタデータ) (2020-08-18T11:40:18Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - Monocular Instance Motion Segmentation for Autonomous Driving: KITTI
InstanceMotSeg Dataset and Multi-task Baseline [5.000331633798637]
オブジェクトのセグメンテーションは、クラス非依存の方法でオブジェクトをセグメンテーションするために使用できるため、自動運転車にとって重要なタスクである。
自律走行の文献ではピクセル単位の運動セグメンテーションが研究されているが、インスタンスレベルではめったに研究されていない。
我々は、KITTIMoSegデータセットを改善した12.9Kサンプルからなる新しいInstanceMotSegデータセットを作成します。
論文 参考訳(メタデータ) (2020-08-16T21:47:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。