論文の概要: Monocular Instance Motion Segmentation for Autonomous Driving: KITTI
InstanceMotSeg Dataset and Multi-task Baseline
- arxiv url: http://arxiv.org/abs/2008.07008v4
- Date: Wed, 26 May 2021 15:12:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 12:08:54.708108
- Title: Monocular Instance Motion Segmentation for Autonomous Driving: KITTI
InstanceMotSeg Dataset and Multi-task Baseline
- Title(参考訳): 自律走行のための単眼インスタンスモーションセグメンテーション:KITTIインスタンスMotSegデータセットとマルチタスクベースライン
- Authors: Eslam Mohamed, Mahmoud Ewaisha, Mennatullah Siam, Hazem Rashed,
Senthil Yogamani, Waleed Hamdy, Muhammad Helmi and Ahmad El-Sallab
- Abstract要約: オブジェクトのセグメンテーションは、クラス非依存の方法でオブジェクトをセグメンテーションするために使用できるため、自動運転車にとって重要なタスクである。
自律走行の文献ではピクセル単位の運動セグメンテーションが研究されているが、インスタンスレベルではめったに研究されていない。
我々は、KITTIMoSegデータセットを改善した12.9Kサンプルからなる新しいInstanceMotSegデータセットを作成します。
- 参考スコア(独自算出の注目度): 5.000331633798637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving object segmentation is a crucial task for autonomous vehicles as it
can be used to segment objects in a class agnostic manner based on their motion
cues. It enables the detection of unseen objects during training (e.g., moose
or a construction truck) based on their motion and independent of their
appearance. Although pixel-wise motion segmentation has been studied in
autonomous driving literature, it has been rarely addressed at the instance
level, which would help separate connected segments of moving objects leading
to better trajectory planning. As the main issue is the lack of large public
datasets, we create a new InstanceMotSeg dataset comprising of 12.9K samples
improving upon our KITTIMoSeg dataset. In addition to providing instance level
annotations, we have added 4 additional classes which is crucial for studying
class agnostic motion segmentation. We adapt YOLACT and implement a
motion-based class agnostic instance segmentation model which would act as a
baseline for the dataset. We also extend it to an efficient multi-task model
which additionally provides semantic instance segmentation sharing the encoder.
The model then learns separate prototype coefficients within the class agnostic
and semantic heads providing two independent paths of object detection for
redundant safety. To obtain real-time performance, we study different efficient
encoders and obtain 39 fps on a Titan Xp GPU using MobileNetV2 with an
improvement of 10% mAP relative to the baseline. Our model improves the
previous state of the art motion segmentation method by 3.3%. The dataset and
qualitative results video are shared in our website at
https://sites.google.com/view/instancemotseg/.
- Abstract(参考訳): 移動対象のセグメンテーションは、自律走行車にとって重要なタスクであり、その動きの手がかりに基づいて、クラスに依存しない方法でオブジェクトをセグメンテーションすることができる。
トレーニング中の見えない物体(ムースや建設トラックなど)を、その動きに基づいて検出し、外観から独立させることができる。
ピクセル単位の運動分割は自動運転の文献で研究されているが、インスタンスレベルでの対応はまれであり、移動物体の連結セグメントを分離して軌道計画を改善するのに役立つ。
主要な課題は、大規模なパブリックデータセットの欠如であるので、KITTIMoSegデータセットを改善した12.9Kサンプルからなる新しいInstanceMotSegデータセットを作成します。
インスタンスレベルのアノテーションの提供に加えて、クラスに依存しないモーションセグメンテーションを研究する上で重要な4つのクラスを追加しました。
データセットのベースラインとして機能するモーションベースクラス非依存のインスタンスセグメンテーションモデルを実装します。
また、エンコーダを共有するセマンティックなインスタンスセグメンテーションを提供する効率的なマルチタスクモデルにも拡張する。
モデルは、冗長な安全性のために2つの独立したオブジェクト検出経路を提供するクラス非依存とセマンティックヘッド内の別々のプロトタイプ係数を学習する。
リアルタイム性能を得るため,MobileNetV2 を用いて,Titan Xp GPU 上で 39 fps の高効率エンコーダを試作し,ベースラインに対して 10% mAP の改善を実現した。
本モデルでは, 従来の動作分割法を3.3%改善する。
データセットと質的な結果のビデオは、https://sites.google.com/view/instancemotseg/で共有されています。
関連論文リスト
- Moving Object Segmentation: All You Need Is SAM (and Flow) [82.78026782967959]
SAMのセグメンテーション能力と移動物体の発見・グループ化能力を利用する光フローとSAMを組み合わせた2つのモデルについて検討する。
第1のモデルでは、RGBではなく光の流れを入力としてSAMに適応させ、第2のモデルではRGBを入力として、フローをセグメント化プロンプトとして使用する。
これらの驚くほど単純な方法は、追加の修正なしに、シングルオブジェクトとマルチオブジェクトのベンチマークにおいて、以前のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2024-04-18T17:59:53Z) - OMG-Seg: Is One Model Good Enough For All Segmentation? [83.17068644513144]
OMG-Segは、タスク固有のクエリと出力を持つトランスフォーマーベースのエンコーダデコーダアーキテクチャである。
OMG-Segは10以上の異なるセグメンテーションタスクをサポートできるが、計算とパラメータのオーバーヘッドを大幅に削減できることを示す。
論文 参考訳(メタデータ) (2024-01-18T18:59:34Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - Video Class Agnostic Segmentation Benchmark for Autonomous Driving [13.312978643938202]
特定の安全クリティカルなロボティクスアプリケーションでは、トレーニング時に未知のものを含むすべてのオブジェクトを分割することが重要です。
自律運転における単眼ビデオシーケンスから未知の物体を考慮に入れたビデオクラスセグメンテーションのタスクを定式化する。
論文 参考訳(メタデータ) (2021-03-19T20:41:40Z) - INSTA-YOLO: Real-Time Instance Segmentation [2.726684740197893]
Insta-YOLOは,リアルタイムインスタンス分割のための一段階のエンドツーエンドディープラーニングモデルである。
提案モデルはYOLOワンショットオブジェクト検出器にインスパイアされ,ボックス回帰損失はローカライゼーションヘッドの回帰に置き換わる。
当社のモデルは,Carnva,Cityscapes,Airbusの3つのデータセットで評価する。
論文 参考訳(メタデータ) (2021-02-12T21:17:29Z) - Self-supervised Sparse to Dense Motion Segmentation [13.888344214818737]
単一ビデオフレームからスパース動作セグメントの密度化を学習するための自己教師付き手法を提案する。
FBMS59 と DAVIS16 でよく知られた動作セグメンテーションデータセットについて検討した。
論文 参考訳(メタデータ) (2020-08-18T11:40:18Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。