論文の概要: IRisPath: Enhancing Costmap for Off-Road Navigation with Robust IR-RGB Fusion for Improved Day and Night Traversability
- arxiv url: http://arxiv.org/abs/2412.03173v2
- Date: Sun, 02 Mar 2025 06:24:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-04 13:04:04.857608
- Title: IRisPath: Enhancing Costmap for Off-Road Navigation with Robust IR-RGB Fusion for Improved Day and Night Traversability
- Title(参考訳): IRisPath:ロバストIR-RGB融合による夜間の移動性向上のためのオフロードナビゲーションのコストマップ
- Authors: Saksham Sharma, Akshit Raizada, Suresh Sundaram,
- Abstract要約: 従来の道路上での自律的な手法はダイナミックな地形に苦しむため、オフロード環境では車両の制御が貧弱になる。
近年の深層学習モデルでは、知覚センサと審美的フィードバックを併用して、そのような地形のナビゲーションを行っている。
本研究では,熱・RGB画像を用いて動的気象・光条件に対する堅牢性を実現するマルチモーダル核融合ネットワーク「IRisPath」を提案する。
- 参考スコア(独自算出の注目度): 2.21687743334279
- License:
- Abstract: Autonomous off-road navigation is required for applications in agriculture, construction, search and rescue and defence. Traditional on-road autonomous methods struggle with dynamic terrains, leading to poor vehicle control in off-road conditions. Recent deep-learning models have used perception sensors along with kinesthetic feedback for navigation on such terrains. However, this approach has out-of-domain uncertainty. Factors like change in time of day and weather impacts the performance of the model. We propose a multi modal fusion network "IRisPath" capable of using Thermal and RGB images to provide robustness against dynamic weather and light conditions. To aid further works in this domain, we also open-source a day-night dataset with Thermal and RGB images along with pseudo-labels for traversability. In order to co-register for fusion model we also develop a novel method for targetless extrinsic calibration of Thermal, LiDAR and RGB cameras with translation accuracy of +/-1.7cm and rotation accuracy of +/-0.827degrees.
- Abstract(参考訳): 農業、建設、捜索、救助、防衛に自律的なオフロードナビゲーションが必要である。
従来の道路上の自律的な手法は、ダイナミックな地形に苦しむため、オフロード環境では車両の制御が貧弱になる。
近年の深層学習モデルでは、知覚センサと審美的フィードバックを併用して、そのような地形のナビゲーションを行っている。
しかし、このアプローチにはドメイン外の不確実性がある。
日中の変化や天候などの要因がモデルの性能に影響を与える。
本研究では,熱・RGB画像を用いて動的気象・光条件に対する堅牢性を実現するマルチモーダル核融合ネットワーク「IRisPath」を提案する。
この領域でのさらなる作業を支援するため、日夜のデータセットを、サーモグラフィとRGBの画像とともに、トラバーサビリティのための擬似ラベルとともにオープンソースにしています。
また, 熱・LiDAR・RGBカメラの回転精度+/-1.7cm, 回転精度+/-0.827°の目標外キャリブレーション法を開発した。
関連論文リスト
- Bringing RGB and IR Together: Hierarchical Multi-Modal Enhancement for Robust Transmission Line Detection [67.02804741856512]
高速かつ高精度なTL検出のために,RGBとIRデータを統合したHMMEN(Hierarchical Multi-Modal Enhancement Network)を提案する。
提案手法では,(1)階層的RGBおよびIR特徴写像を大まかに融合・拡張するMMEB,(2)デコーダ出力とIR特徴写像の不整合を変形可能な畳み込みを利用して補正するFAB,の2つの重要な構成要素を紹介する。
論文 参考訳(メタデータ) (2025-01-25T06:21:06Z) - TEDNet: Twin Encoder Decoder Neural Network for 2D Camera and LiDAR Road Detection [2.8038082486377114]
道路面の正確な推定のために,新しい畳み込みニューラルネットワークモデルを提案する。
我々のモデルは、独立カメラとLiDAR機能抽出にTwin-Decoder Neural Network(TEDNet)を用いている。
このモデルでは、カメラとLiDARデータのバードアイビュー投影を用いて、各ピクセルが路面に属するか否かのセマンティックセグメンテーションを行う。
論文 参考訳(メタデータ) (2024-05-14T08:45:34Z) - RoadRunner -- Learning Traversability Estimation for Autonomous Off-road Driving [13.101416329887755]
我々は、カメラとLiDARセンサーの入力から直接地形変動を予測できるフレームワークであるRoadRunnerと、標高マップを提示する。
RoadRunnerは、センサ情報、不確実性の処理、コンテキスト情報による予測の生成を融合させることで、信頼性の高い自律ナビゲーションを可能にする。
我々は,非構造砂漠環境を通した複数の現実の運転シナリオにおいて,安全かつ信頼性の高いオフロードナビゲーションを実現する上で,ロードランナーの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T16:47:54Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Pseudo-LiDAR Based Road Detection [5.9106199000537645]
推論時にのみRGBが入力となる新しい道路検出手法を提案する。
深度推定を用いた擬似LiDARを利用して,RGBと学習深度情報を融合した特徴融合ネットワークを提案する。
提案手法は, KITTI と R2D の2つのベンチマークにおいて,最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-28T11:21:42Z) - Jointly Modeling Motion and Appearance Cues for Robust RGB-T Tracking [85.333260415532]
我々はRGBと熱(T)の両モードの融合重量マップを推定する新しい後期融合法を開発した。
外観キューが信頼できない場合には、動作キューを考慮に入れ、トラッカーを堅牢にする。
最近の3つのRGB-T追跡データセットの多くの結果から、提案したトラッカーは他の最先端のアルゴリズムよりも大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2020-07-04T08:11:33Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。