論文の概要: Lidar based 3D Tracking and State Estimation of Dynamic Objects
- arxiv url: http://arxiv.org/abs/2304.01396v1
- Date: Mon, 3 Apr 2023 22:13:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 16:19:31.194144
- Title: Lidar based 3D Tracking and State Estimation of Dynamic Objects
- Title(参考訳): lidarによる動的物体の3次元追跡と状態推定
- Authors: Patil Shubham Suresh, Gautham Narayan Narasimhan
- Abstract要約: 私たちのプロジェクトは、エゴ(自己)と非エゴ(非エゴ)の移動のような動的なシーンに取り組みます。
当社のアプローチは,運動計画や意思決定に不可欠な非エゴ車両の状態を推定することに焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State estimation of oncoming vehicles: Earlier research has been based on
determining states like position, velocity, orientation , angular velocity, etc
of ego-vehicle. Our approach focuses on estimating the states of non-ego
vehicles which is crucial for Motion planning and decision-making. Dynamic
Scene Based Localization: Our project will work on dynamic scenes like moving
ego (self) and non-ego vehicles. Previous methods were focused on static
environments.
- Abstract(参考訳): 対向車の状態推定: 初期の研究は、自走車の位置、速度、方向、角速度などの状態の決定に基づいている。
提案手法は,運動計画や意思決定に不可欠な非自走車の状態推定に重点を置いている。
ダイナミックシーンベースのローカライゼーション: 私たちのプロジェクトは、移動エゴ(自己)や非エゴ車両のような動的シーンで作業します。
以前の手法は静的環境に重点を置いていた。
関連論文リスト
- Instantaneous Perception of Moving Objects in 3D [86.38144604783207]
周囲の交通参加者の3次元運動の認識は、運転安全に不可欠である。
本研究では,物体点雲の局所的な占有率の達成を利用して形状を密度化し,水泳人工物の影響を軽減することを提案する。
広汎な実験は、標準的な3次元運動推定手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-05T01:07:24Z) - QuAD: Query-based Interpretable Neural Motion Planning for Autonomous Driving [33.609780917199394]
自動運転車は環境を理解して適切な行動を決定する必要がある。
従来のシステムは、シーン内のエージェントを見つけるためにオブジェクト検出に依存していた。
我々は、最初に占有する時間的自律性を知覚するカスケードモジュールから遠ざかる、統一的で解釈可能で効率的な自律フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-01T21:11:43Z) - DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - Locking On: Leveraging Dynamic Vehicle-Imposed Motion Constraints to
Improve Visual Localization [29.828201168816243]
ほとんどの6-DoFローカライゼーションSLAMシステムは静的ランドマークを使用するが、典型的なパイプラインに組み込むことができないため、動的オブジェクトを無視する。
本研究では,自律走行車に制約情報を提供するために動的車両を用いた中間地点を提案する。
当社のシステムはFord AVデータセット上で約35%の時間でアクティブであり、制約検出がアクティブになると特にローカライゼーションが向上する。
論文 参考訳(メタデータ) (2023-06-30T10:34:56Z) - Model-Based Imitation Learning for Urban Driving [26.782783239210087]
MILE: 世界のモデルと自律運転のポリシーを共同で学習するためのモデルに基づくImitation LEarningアプローチを提案する。
本モデルでは, 都市運転データのオフラインコーパスを用いて, 環境とのオンラインインタラクションを伴わない訓練を行った。
我々のアプローチは、都市運転環境における静的シーン、ダイナミックシーン、エゴビヘイビアをモデル化する最初のカメラのみの手法である。
論文 参考訳(メタデータ) (2022-10-14T11:59:46Z) - PREF: Predictability Regularized Neural Motion Fields [68.60019434498703]
ダイナミックなシーンで3Dの動きを知ることは、多くの視覚応用にとって不可欠である。
多視点設定における全ての点の運動を推定するために神経運動場を利用する。
予測可能な動きを正規化することを提案する。
論文 参考訳(メタデータ) (2022-09-21T22:32:37Z) - Predicting Future Occupancy Grids in Dynamic Environment with
Spatio-Temporal Learning [63.25627328308978]
本稿では,将来の占有予測を生成するための時間的予測ネットワークパイプラインを提案する。
現在のSOTAと比較して、我々の手法は3秒の長い水平線での占有を予測している。
我々は、さらなる研究を支援するために、nulisに基づくグリッド占有データセットを公開します。
論文 参考訳(メタデータ) (2022-05-06T13:45:32Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Commands 4 Autonomous Vehicles (C4AV) Workshop Summary [91.92872482200018]
本稿では,最近のEmphTalk2Carデータセットに基づいて,EmphCommands for autonomous Vehicles (C4AV)チャレンジの結果について述べる。
我々は、トップパフォーマンスモデルを成功させる側面を特定し、それらを視覚的なグラウンド化のために既存の最先端モデルと関連付ける。
論文 参考訳(メタデータ) (2020-09-18T12:33:21Z) - Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds [4.640835690336654]
動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
論文 参考訳(メタデータ) (2020-04-24T10:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。