論文の概要: TEDNet: Twin Encoder Decoder Neural Network for 2D Camera and LiDAR Road Detection
- arxiv url: http://arxiv.org/abs/2405.08429v1
- Date: Tue, 14 May 2024 08:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 14:48:16.139310
- Title: TEDNet: Twin Encoder Decoder Neural Network for 2D Camera and LiDAR Road Detection
- Title(参考訳): TEDNet: 2次元カメラとLiDAR道路検出のためのツインエンコーダデコーダニューラルネットワーク
- Authors: Martín Bayón-Gutiérrez, María Teresa García-Ordás, Héctor Alaiz Moretón, Jose Aveleira-Mata, Sergio Rubio Martín, José Alberto Benítez-Andrades,
- Abstract要約: 道路面の正確な推定のために,新しい畳み込みニューラルネットワークモデルを提案する。
我々のモデルは、独立カメラとLiDAR機能抽出にTwin-Decoder Neural Network(TEDNet)を用いている。
このモデルでは、カメラとLiDARデータのバードアイビュー投影を用いて、各ピクセルが路面に属するか否かのセマンティックセグメンテーションを行う。
- 参考スコア(独自算出の注目度): 2.8038082486377114
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Robust road surface estimation is required for autonomous ground vehicles to navigate safely. Despite it becoming one of the main targets for autonomous mobility researchers in recent years, it is still an open problem in which cameras and LiDAR sensors have demonstrated to be adequate to predict the position, size and shape of the road a vehicle is driving on in different environments. In this work, a novel Convolutional Neural Network model is proposed for the accurate estimation of the roadway surface. Furthermore, an ablation study has been conducted to investigate how different encoding strategies affect model performance, testing 6 slightly different neural network architectures. Our model is based on the use of a Twin Encoder-Decoder Neural Network (TEDNet) for independent camera and LiDAR feature extraction, and has been trained and evaluated on the Kitti-Road dataset. Bird's Eye View projections of the camera and LiDAR data are used in this model to perform semantic segmentation on whether each pixel belongs to the road surface. The proposed method performs among other state-of-the-art methods and operates at the same frame-rate as the LiDAR and cameras, so it is adequate for its use in real-time applications.
- Abstract(参考訳): 自動運転車が安全に走行するには、ロバストな路面推定が必要である。
近年、自動運転の研究者の標的となっているが、カメラとLiDARセンサーが、異なる環境で車両が運転している道路の位置、大きさ、形状を予測するのに十分なことを証明していることは、まだ未解決の問題である。
本研究では,道路面の正確な推定のために,新しい畳み込みニューラルネットワークモデルを提案する。
さらに、異なるエンコーディング戦略がモデル性能にどのように影響するかを調べるためのアブレーション研究が行われ、わずかに異なる6つのニューラルネットワークアーキテクチャをテストする。
我々のモデルは、独立カメラとLiDAR特徴抽出にTwin Encoder-Decoder Neural Network(TEDNet)を使用しており、Kitti-Roadデータセットに基づいて訓練および評価されている。
このモデルでは、カメラとLiDARデータのバードアイビュー投影を用いて、各ピクセルが路面に属するか否かのセマンティックセグメンテーションを行う。
提案手法は,LiDARやカメラと同じフレームレートで動作し,リアルタイムアプリケーションでの利用に適している。
関連論文リスト
- XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - Multi-Object Tracking with Camera-LiDAR Fusion for Autonomous Driving [0.764971671709743]
提案したMOTアルゴリズムは、3段階のアソシエーションプロセスと、検出された動的障害物の運動を推定する拡張カルマンフィルタと、トラック管理フェーズとを備える。
多くの最先端のマルチモーダルMOTアプローチとは異なり、提案アルゴリズムはエゴのグローバルなポーズの地図や知識に依存しない。
このアルゴリズムはシミュレーションと実世界のデータの両方で検証され、良好な結果が得られる。
論文 参考訳(メタデータ) (2024-03-06T23:49:16Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - Automatic Extraction of Road Networks from Satellite Images by using
Adaptive Structural Deep Belief Network [0.0]
本研究では,ロードトラッカーと呼ばれる道路網の自動認識手法に適用する。
RoadTracerは航空写真データから地上の道路地図を生成することができる。
精度と計算時間を改善するため,我々のAdaptive DBNはCNNの代わりにRoadTracer上に実装された。
論文 参考訳(メタデータ) (2021-10-25T07:06:10Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Pseudo-LiDAR Based Road Detection [5.9106199000537645]
推論時にのみRGBが入力となる新しい道路検出手法を提案する。
深度推定を用いた擬似LiDARを利用して,RGBと学習深度情報を融合した特徴融合ネットワークを提案する。
提案手法は, KITTI と R2D の2つのベンチマークにおいて,最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-28T11:21:42Z) - 2nd Place Solution for Waymo Open Dataset Challenge - Real-time 2D
Object Detection [26.086623067939605]
本稿では,画像から2次元物体を検出するリアルタイム手法を提案する。
我々は、加速度RTを活用して、検出パイプラインの推論時間を最適化する。
我々のフレームワークはNvidia Tesla V100 GPU上で45.8ms/frameのレイテンシを実現する。
論文 参考訳(メタデータ) (2021-06-16T11:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。