論文の概要: VM-MODNet: Vehicle Motion aware Moving Object Detection for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2104.10985v1
- Date: Thu, 22 Apr 2021 10:46:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:53:31.806520
- Title: VM-MODNet: Vehicle Motion aware Moving Object Detection for Autonomous
Driving
- Title(参考訳): vm-modnet:自律走行のための移動物体検出
- Authors: Hazem Rashed, Ahmad El Sallab and Senthil Yogamani
- Abstract要約: 移動物体検出(MOD)は自律運転において重要な課題である。
我々は,車両の運動情報を活用し,モデルに入力し,自我運動に基づく適応機構を実現することを目的とする。
Vehicle Motion (VMT) を用いたモデルでは,ベースラインアーキテクチャよりもmIoUが5.6%向上した。
- 参考スコア(独自算出の注目度): 3.6550372593827887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving object Detection (MOD) is a critical task in autonomous driving as
moving agents around the ego-vehicle need to be accurately detected for safe
trajectory planning. It also enables appearance agnostic detection of objects
based on motion cues. There are geometric challenges like motion-parallax
ambiguity which makes it a difficult problem. In this work, we aim to leverage
the vehicle motion information and feed it into the model to have an adaptation
mechanism based on ego-motion. The motivation is to enable the model to
implicitly perform ego-motion compensation to improve performance. We convert
the six degrees of freedom vehicle motion into a pixel-wise tensor which can be
fed as input to the CNN model. The proposed model using Vehicle Motion Tensor
(VMT) achieves an absolute improvement of 5.6% in mIoU over the baseline
architecture. We also achieve state-of-the-art results on the public
KITTI_MoSeg_Extended dataset even compared to methods which make use of LiDAR
and additional input frames. Our model is also lightweight and runs at 85 fps
on a TitanX GPU. Qualitative results are provided in
https://youtu.be/ezbfjti-kTk.
- Abstract(参考訳): 移動物体検出(MOD)は、自走車周辺の移動エージェントを安全な軌道計画のために正確に検出する必要があるため、自律走行において重要な課題である。
また、動きの手がかりに基づく物体の外観非依存検出を可能にする。
運動パララックスの曖昧さのような幾何学的な課題があり、難しい問題となっている。
本研究では,車両の運動情報を活用し,それをモデルに供給し,エゴモーションに基づく適応機構を実現することを目的とする。
モチベーションは、モデルが暗黙的にエゴモーション補償を実行し、パフォーマンスを改善することである。
我々は、6自由度車両の動きをCNNモデルへの入力として供給できる画素ワイドテンソルに変換する。
車両運動テンソル(VMT)を用いたモデルでは,ベースラインアーキテクチャよりもmIoUが5.6%向上した。
また,一般のKITTI_MoSeg_Extendedデータセットにおいても,LiDARや追加入力フレームを用いた手法と比較して,最先端の処理結果が得られる。
我々のモデルは軽量で、TitanX GPU上で85fpsで動作する。
質的な結果はhttps://youtu.be/ezbfjti-ktkで提供される。
関連論文リスト
- MotionFix: Text-Driven 3D Human Motion Editing [52.11745508960547]
主な課題は、トレーニングデータの不足と、ソースの動きを正確に編集するモデルの設計である。
本研究では, (i) 震源運動, (ii) 目標運動, (iii) 編集テキストからなる三つ組のデータセットを半自動で収集する手法を提案する。
このデータにアクセスすると、ソースモーションと編集テキストの両方を入力として取り込む条件拡散モデルTMEDをトレーニングできます。
論文 参考訳(メタデータ) (2024-08-01T16:58:50Z) - MM-Tracker: Motion Mamba with Margin Loss for UAV-platform Multiple Object Tracking [12.326023523101806]
無人航空機プラットフォームからの複数の物体追跡(MOT)には、効率的なモーションモデリングが必要である。
本研究では,ローカル・グローバル両方の動作特徴を探索するMotion Mamba Moduleを提案する。
また,動きのぼやけた物体の検出精度を効果的に向上するために,運動マージンの損失を設計する。
Motion Mambaモジュールとモーションマージンの損失に基づいて、提案したMM-Trackerは、2つの広くオープンソースUAV-MOTデータセットで最先端のデータを上回ります。
論文 参考訳(メタデータ) (2024-07-15T07:13:27Z) - Ego-Motion Aware Target Prediction Module for Robust Multi-Object Tracking [2.7898966850590625]
我々は、Ego-motion Aware Target Prediction (EMAP)と呼ばれる新しいKFベースの予測モジュールを導入する。
提案手法は、カルマンフィルタを再構成することにより、物体軌道からのカメラ回転速度と翻訳速度の影響を分離する。
EMAPはOC-SORTとDeep OC-SORTのIDSWをそれぞれ73%と21%減少させる。
論文 参考訳(メタデータ) (2024-04-03T23:24:25Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - BootsTAP: Bootstrapped Training for Tracking-Any-Point [62.585297341343505]
Tracking-Any-Point (TAP) は、ビデオ中の固体表面上の任意の点を追跡するアルゴリズムとして形式化することができる。
大規模でラベルなし、未修正のリアルワールドデータが、最小限のアーキテクチャ変更でTAPモデルを改善することができることを示す。
我々は,TAP-Vidベンチマークにおける最先端性能が,従来の結果よりも広いマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2024-02-01T18:38:55Z) - Trajeglish: Traffic Modeling as Next-Token Prediction [67.28197954427638]
自動運転開発における長年の課題は、記録された運転ログからシードされた動的運転シナリオをシミュレートすることだ。
車両、歩行者、サイクリストが運転シナリオでどのように相互作用するかをモデル化するために、離散シーケンスモデリングのツールを適用します。
我々のモデルはSim Agents Benchmarkを上回り、リアリズムメタメトリックの先行作業の3.3%、インタラクションメトリックの9.9%を上回ります。
論文 参考訳(メタデータ) (2023-12-07T18:53:27Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Observation-Centric SORT: Rethinking SORT for Robust Multi-Object
Tracking [32.32109475782992]
簡単な動きモデルにより、外観のような他の手段を使わずに、最先端のトラッキング性能が得られることを示す。
そこで我々は,提案手法を OC-SORT,Observatory-Centric SORT,略してOC-SORT と呼ぶ。
論文 参考訳(メタデータ) (2022-03-27T17:57:08Z) - Optical Flow Based Motion Detection for Autonomous Driving [0.0]
入力として光流場情報を用いて動作状態を分類するためにニューラルネットワークモデルを訓練する。
この実験は精度が高く、私たちのアイデアが実現可能で有望であることを示します。
論文 参考訳(メタデータ) (2022-03-03T03:24:14Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Object Tracking by Detection with Visual and Motion Cues [1.7818230914983044]
自動運転車は、カメラ画像中の物体を検出し、追跡する必要がある。
本稿では,カルマンフィルタを用いた定速度運動モデルに基づく簡易オンライン追跡アルゴリズムを提案する。
課題のあるBDD100データセットに対するアプローチを評価します。
論文 参考訳(メタデータ) (2021-01-19T10:29:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。