論文の概要: A Visual SLAM with Moving Object Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2303.02257v1
- Date: Fri, 3 Mar 2023 23:12:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 20:40:59.910712
- Title: A Visual SLAM with Moving Object Trajectory Prediction
- Title(参考訳): 移動物体軌道予測を用いた視覚SLAM
- Authors: Qi Zhang, Siyuan Gou, Wenbin Li
- Abstract要約: 移動物体の軌跡追跡と予測を組み込んだ視覚的SLAMシステムを提案する。
我々は、歩行者が環境をマッピングする限り、その動きを追跡し予測する動きの手がかりを考慮に入れている。
このような統合システムは、シーン内のカメラや他の移動物体のローカライズを解消し、さらに車両の潜在的なナビゲーションを支援するスパースマップを作成する。
- 参考スコア(独自算出の注目度): 9.927317263830611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Simultaneous Localization and Mapping (SLAM) has received significant
attention in recent years due to its ability to estimate camera trajectory and
create an environment map using visual data alone, making a substantial
contribution to autonomous driving applications, in particular, a real-world
scenario with moving crowds and vehicles. In this work, we propose a visual
SLAM system that incorporates moving object trajectory tracking and prediction.
We take into account the motion clues of the pedestrians to track and predict
their movement, as long as mapping the environment. Such an integrated system
solves the localization of the camera and other moving objects in the scene,
and further creates a sparse map to support the potential navigation of the
vehicle. In the experiment, we demonstrate the effectiveness and robustness of
our approach through a comprehensive evaluation on both our simulation and
real-world KITTI datasets.
- Abstract(参考訳): 視覚同時ローカライゼーション・マッピング(slam, visual concurrent localization and mapping)は、カメラの軌跡を推定し、視覚データだけで環境マップを作成する能力から、近年注目を集めている。
本研究では,移動物体の軌跡追跡と予測を組み込んだ視覚的SLAMシステムを提案する。
我々は、歩行者が環境をマッピングする限り、その動きを追跡し予測する動きの手がかりを考慮に入れている。
このような統合システムは、シーン内のカメラや他の移動物体のローカライズを解消し、さらに車両の潜在的なナビゲーションを支援するスパースマップを作成する。
実験では,シミュレーションと実世界のKITTIデータセットを総合的に評価し,提案手法の有効性とロバスト性を実証した。
関連論文リスト
- Advancing Autonomous Driving Perception: Analysis of Sensor Fusion and Computer Vision Techniques [0.0]
このプロジェクトは、自動運転ロボットの理解とナビゲーション能力の向上に焦点を当てている。
既存の検出と追跡アルゴリズムを用いて、未知のマップ2Dマップへのより良いナビゲーションを実現する方法について検討する。
論文 参考訳(メタデータ) (2024-11-15T19:11:58Z) - 3D Object Visibility Prediction in Autonomous Driving [6.802572869909114]
本稿では,新しい属性とその対応するアルゴリズムである3Dオブジェクトの可視性について述べる。
この属性の提案とその計算戦略は、下流タスクの能力を拡大することを目的としている。
論文 参考訳(メタデータ) (2024-03-06T13:07:42Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - LiveMap: Real-Time Dynamic Map in Automotive Edge Computing [14.195521569220448]
LiveMapは、接続された車両のデータをサブ秒でクラウドソーシングし、道路上のオブジェクトを検出し、一致させ、追跡するリアルタイムダイナミックマップです。
車両の計算を適応的にオフロードできるlivemapの制御プレーンを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
論文 参考訳(メタデータ) (2020-12-16T15:00:49Z) - Artificial Intelligence Enabled Traffic Monitoring System [3.085453921856008]
本稿では,深層畳み込みニューラルネットワークを用いたリアルタイム交通映像の自動監視手法を提案する。
提案システムは、さまざまなトラフィック監視ニーズを自動化するために、最先端のディープラーニングアルゴリズムをデプロイする。
論文 参考訳(メタデータ) (2020-10-02T22:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。