論文の概要: Driving among Flatmobiles: Bird-Eye-View occupancy grids from a
monocular camera for holistic trajectory planning
- arxiv url: http://arxiv.org/abs/2008.04047v1
- Date: Mon, 10 Aug 2020 12:16:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:28:39.366963
- Title: Driving among Flatmobiles: Bird-Eye-View occupancy grids from a
monocular camera for holistic trajectory planning
- Title(参考訳): フラットモビル間走行:単眼カメラからの鳥眼視空間グリッドによる総合軌道計画
- Authors: Abdelhak Loukkal (UTC), Yves Grandvalet (Heudiasyc), Tom Drummond, You
Li (NRCIEA)
- Abstract要約: カメラベースのエンドツーエンド駆動ニューラルネットワークは、カメライメージを駆動制御コマンドにマップする低コストのシステムを実現する。
最近の研究は、解釈可能性とネットワーク決定の精度の両方を増大させる利点を持つ明示的な中間表現を使用することの重要性を示している。
本稿では,Bird-Eye-View中間表現を用いた一眼レフカメラのみの包括的終端軌道計画ネットワークを提案する。
- 参考スコア(独自算出の注目度): 11.686108908830805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera-based end-to-end driving neural networks bring the promise of a
low-cost system that maps camera images to driving control commands. These
networks are appealing because they replace laborious hand engineered building
blocks but their black-box nature makes them difficult to delve in case of
failure. Recent works have shown the importance of using an explicit
intermediate representation that has the benefits of increasing both the
interpretability and the accuracy of networks' decisions. Nonetheless, these
camera-based networks reason in camera view where scale is not homogeneous and
hence not directly suitable for motion forecasting. In this paper, we introduce
a novel monocular camera-only holistic end-to-end trajectory planning network
with a Bird-Eye-View (BEV) intermediate representation that comes in the form
of binary Occupancy Grid Maps (OGMs). To ease the prediction of OGMs in BEV
from camera images, we introduce a novel scheme where the OGMs are first
predicted as semantic masks in camera view and then warped in BEV using the
homography between the two planes. The key element allowing this transformation
to be applied to 3D objects such as vehicles, consists in predicting solely
their footprint in camera-view, hence respecting the flat world hypothesis
implied by the homography.
- Abstract(参考訳): カメラベースのエンドツーエンド駆動ニューラルネットワークは、カメライメージを駆動制御コマンドにマップする低コストシステムを実現する。
これらのネットワークは、面倒な手作りのビルディングブロックを置き換えるため、魅力的だが、そのブラックボックスの性質は、故障時に探すことを困難にしている。
最近の研究は、解釈可能性とネットワーク決定の精度の両方を増大させる利点を持つ明示的な中間表現を使用することの重要性を示している。
それにもかかわらず、これらのカメラベースのネットワークは、カメラビューにおいて、スケールが均一ではなく、したがってモーション予測に直接適さない理由となっている。
本稿では,鳥眼視(bird-eye-view, bev)中間表現を二元占有グリッドマップ(binary occupancy grid map,ogms)として提供する,単眼カメラのみのエンドツーエンド軌道計画ネットワークを提案する。
カメラ画像から、BEVにおけるOGMの予測を容易にするため、カメラビューで最初にOGMをセマンティックマスクとして予測し、2つの平面間のホモグラフィーを用いてBEVに警告する新しいスキームを導入する。
この変換を車両などの3dオブジェクトに適用可能にする重要な要素は、カメラビューでの足跡のみを予測することであり、したがってホモグラフィによって暗示されるフラットワールド仮説を尊重する。
関連論文リスト
- BEVSeg2TP: Surround View Camera Bird's-Eye-View Based Joint Vehicle
Segmentation and Ego Vehicle Trajectory Prediction [4.328789276903559]
軌道予測は自動車の自律性にとって重要な課題である。
学習に基づく軌道予測への関心が高まっている。
認識能力を向上させる可能性があることが示される。
論文 参考訳(メタデータ) (2023-12-20T15:02:37Z) - Multi-camera Bird's Eye View Perception for Autonomous Driving [17.834495597639805]
他のエージェントや構造の空間的推論を可能にするためには、3Dで知覚出力を生成することが不可欠である。
カメラ画像から所望のBEV表現を達成するための最も基本的なアプローチは、平らな地面を仮定してIPMである。
近年のアプローチでは、ディープニューラルネットワークを使用してBEV空間を直接出力している。
論文 参考訳(メタデータ) (2023-09-16T19:12:05Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - LaRa: Latents and Rays for Multi-Camera Bird's-Eye-View Semantic
Segmentation [43.12994451281451]
複数のカメラからの車両セマンティックセグメンテーションのための効率的なエンコーダデコーダである'LaRa'を提案する。
我々のアプローチは、複数のセンサーにまたがる情報を、コンパクトでリッチな潜在表現の集合に集約するクロスアテンションシステムを用いています。
論文 参考訳(メタデータ) (2022-06-27T13:37:50Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - GitNet: Geometric Prior-based Transformation for Birds-Eye-View
Segmentation [105.19949897812494]
Birds-eye-view (BEV) セマンティックセマンティックセグメンテーションは自動運転に不可欠である。
本稿では,GitNetという新しい2段階のGeometry Preside-based Transformationフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-16T06:46:45Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography [12.062095895630563]
本稿では,1台の交通カメラから3次元世界における車両の位置とポーズを抽出する手法を提案する。
道路平面と画像平面の相同性が3D車両の検出に不可欠であることを観察する。
本稿では,BEV画像の歪み検出精度を高めるためのtextittailedr-box と textitdual-view Network アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-29T02:57:37Z) - Understanding Bird's-Eye View Semantic HD-Maps Using an Onboard
Monocular Camera [110.83289076967895]
本研究では,ワンオンボードカメラからの映像入力を用いて,セマンティック・バードズ・アイ・ビューHDマップのオンライン推定形式でのシーン理解について検討した。
実験では,HDマップの理解において,考慮すべき側面が相補的であることを実証した。
論文 参考訳(メタデータ) (2020-12-05T14:39:14Z) - Lift, Splat, Shoot: Encoding Images From Arbitrary Camera Rigs by
Implicitly Unprojecting to 3D [100.93808824091258]
本稿では,任意の数のカメラから映像データを与えられたシーンの鳥眼ビュー表現を直接抽出するエンド・ツー・エンドアーキテクチャを提案する。
我々のアプローチは、それぞれの画像をそれぞれのカメラのフラストラムに個別に“リフト”し、すべてのフラストラムを鳥の目視格子に“プレート”することです。
提案モデルにより推定される表現は,テンプレートトラジェクトリを鳥眼ビューのコストマップに"撮影"することで,終末動作計画の解釈を可能にすることを示す。
論文 参考訳(メタデータ) (2020-08-13T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。