論文の概要: Dfferentiable Raycasting for Self-supervised Occupancy Forecasting
- arxiv url: http://arxiv.org/abs/2210.01917v1
- Date: Tue, 4 Oct 2022 21:35:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 14:55:49.328324
- Title: Dfferentiable Raycasting for Self-supervised Occupancy Forecasting
- Title(参考訳): 自己管理型職業予測のための難読性レイキャスト
- Authors: Tarasha Khurana, Peiyun Hu, Achal Dave, Jason ZIglar, David Held, Deva
Ramanan
- Abstract要約: 自動運転のための運動計画では、エゴ車の周囲の環境が時間とともにどのように進化するかを学ぶ必要がある。
本稿では,自由空間のようなビュー依存表現の自然な代替手段として,幾何学的占有を用いる。
私たちの重要な洞察は、差別化可能なレイキャストを使用して、将来の占有率予測を、将来のLiDARスイープ予測に"レンダリング"することです。
- 参考スコア(独自算出の注目度): 52.61762537741392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion planning for safe autonomous driving requires learning how the
environment around an ego-vehicle evolves with time. Ego-centric perception of
driveable regions in a scene not only changes with the motion of actors in the
environment, but also with the movement of the ego-vehicle itself.
Self-supervised representations proposed for large-scale planning, such as
ego-centric freespace, confound these two motions, making the representation
difficult to use for downstream motion planners. In this paper, we use
geometric occupancy as a natural alternative to view-dependent representations
such as freespace. Occupancy maps naturally disentangle the motion of the
environment from the motion of the ego-vehicle. However, one cannot directly
observe the full 3D occupancy of a scene (due to occlusion), making it
difficult to use as a signal for learning. Our key insight is to use
differentiable raycasting to "render" future occupancy predictions into future
LiDAR sweep predictions, which can be compared with ground-truth sweeps for
self-supervised learning. The use of differentiable raycasting allows occupancy
to emerge as an internal representation within the forecasting network. In the
absence of groundtruth occupancy, we quantitatively evaluate the forecasting of
raycasted LiDAR sweeps and show improvements of upto 15 F1 points. For
downstream motion planners, where emergent occupancy can be directly used to
guide non-driveable regions, this representation relatively reduces the number
of collisions with objects by up to 17% as compared to freespace-centric motion
planners.
- Abstract(参考訳): 安全な自動運転のためのモーションプランニングには、エゴ車周りの環境が時間とともにどのように進化するかを学ぶ必要がある。
エゴ中心の場面での駆動可能な領域の知覚は、環境における俳優の動きとともに変化するだけでなく、エゴ車自体の運動によっても変化する。
ego中心の自由空間のような大規模計画のために提案された自己監督表現は、これら2つの動きを結合し、下流の運動プランナーに使用するのが困難である。
本稿では,自由空間のようなビュー依存表現の自然な代替手段として,幾何学的占有を用いる。
活動地図は自然にエゴ車の動きから環境の動きを遠ざけている。
しかし、シーンの3D占有率を直接観察することはできない(閉塞のため)ため、学習の信号としての使用は困難である。
我々の重要な洞察は、将来の占有予測を将来のlidarスイープ予測に「反映」するために微分可能なレイキャストを使用することです。
微分可能なレイキャスティングを使用することで、占有者は予測ネットワーク内の内部表現として現れる。
地中接点がない場合, レイキャストしたLiDARスイープの予測を定量的に評価し, 最大15F1点の改善を示した。
非駆動領域の誘導に創発的占有が直接使用できる下流運動プランナーの場合、この表現は自由空間中心の運動プランナーと比較して物体との衝突回数を最大17%減少させる。
関連論文リスト
- QuAD: Query-based Interpretable Neural Motion Planning for Autonomous Driving [33.609780917199394]
自動運転車は環境を理解して適切な行動を決定する必要がある。
従来のシステムは、シーン内のエージェントを見つけるためにオブジェクト検出に依存していた。
我々は、最初に占有する時間的自律性を知覚するカスケードモジュールから遠ざかる、統一的で解釈可能で効率的な自律フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-01T21:11:43Z) - Self-Supervised Class-Agnostic Motion Prediction with Spatial and Temporal Consistency Regularizations [53.797896854533384]
クラスに依存しない動き予測法は点雲全体の動きを直接予測する。
既存のほとんどのメソッドは、完全に教師付き学習に依存しているが、ポイントクラウドデータの手作業によるラベル付けは、手間と時間を要する。
3つの簡単な空間的・時間的正則化損失を導入し,自己指導型学習プロセスの効率化を図る。
論文 参考訳(メタデータ) (2024-03-20T02:58:45Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - StopNet: Scalable Trajectory and Occupancy Prediction for Urban
Autonomous Driving [14.281088967734098]
本研究では,都市部における自律走行の遅延要件を満たす動き予測(挙動予測)手法を提案する。
全シーンのスパース入力表現により、StopNetは、信頼できるレイテンシを持つ数百のロードエージェントのトラジェクトリを予測できる。
我々のシーンエンコーダは、軌道の予測に加えて、全体の確率的占有グリッドの予測にも役立ちます。
論文 参考訳(メタデータ) (2022-06-02T11:22:27Z) - Occupancy Flow Fields for Motion Forecasting in Autonomous Driving [36.64394937525725]
複数のエージェントの動作予測のための新しい表現であるOccupancy Flow Fieldsを提案する。
我々の表現は、各格子セルが任意のエージェントによって占有されているセルの確率等級と、そのセルの運動方向を表す2次元フローベクトルの両方を含む時間格子である。
我々は、大規模な社内自動運転データセットとInterACTIONデータセットの実験結果について報告し、我々のモデルが最先端のモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-03-08T06:26:50Z) - Self-Supervised Pillar Motion Learning for Autonomous Driving [10.921208239968827]
本研究では,点群からの自由監視信号と対カメラ画像を利用した学習フレームワークを提案する。
本モデルでは,確率的運動マスキングを付加した点雲に基づく構造整合性と,所望の自己超越を実現するためのクロスセンサ運動正規化を含む。
論文 参考訳(メタデータ) (2021-04-18T02:32:08Z) - Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
論文 参考訳(メタデータ) (2021-01-07T06:08:21Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。