論文の概要: Vision-Based Perception for Autonomous Vehicles in Off-Road Environment Using Deep Learning
- arxiv url: http://arxiv.org/abs/2509.19378v1
- Date: Sat, 20 Sep 2025 03:34:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.529197
- Title: Vision-Based Perception for Autonomous Vehicles in Off-Road Environment Using Deep Learning
- Title(参考訳): ディープラーニングを用いたオフロード環境における自動車の視覚的認識
- Authors: Nelson Alves Ferreira Neto,
- Abstract要約: 低レイテンシなインテリジェントシステムは、オープンピット鉱山や発展途上国の非均一な地形での自動運転に必要である。
本研究では,未舗装道路やオフロード環境における自動運転車の認識システムを提案する。
本研究は,学習領域を明示的なトラック境界なしに検出するための深層学習の適用,可視性障害下でのアルゴリズムの挙動,および実時間セマンティックセグメンテーションによるフィールドテストについて検討した。
- 参考スコア(独自算出の注目度): 0.27412662946127764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-latency intelligent systems are required for autonomous driving on non-uniform terrain in open-pit mines and developing countries. This work proposes a perception system for autonomous vehicles on unpaved roads and off-road environments, capable of navigating rough terrain without a predefined trail. The Configurable Modular Segmentation Network (CMSNet) framework is proposed, facilitating different architectural arrangements. CMSNet configurations were trained to segment obstacles and trafficable ground on new images from unpaved/off-road scenarios with adverse conditions (night, rain, dust). We investigated applying deep learning to detect drivable regions without explicit track boundaries, studied algorithm behavior under visibility impairment, and evaluated field tests with real-time semantic segmentation. A new dataset, Kamino, is presented with almost 12,000 images from an operating vehicle with eight synchronized cameras. The Kamino dataset has a high number of labeled pixels compared to similar public collections and includes images from an off-road proving ground emulating a mine under adverse visibility. To achieve real-time inference, CMSNet CNN layers were methodically removed and fused using TensorRT, C++, and CUDA. Empirical experiments on two datasets validated the proposed system's effectiveness.
- Abstract(参考訳): 低レイテンシなインテリジェントシステムは、オープンピット鉱山や発展途上国の非均一な地形での自動運転に必要である。
本研究では,未舗装道路やオフロード環境における自動運転車の認識システムを提案する。
CMSNet(Configurable Modular Segmentation Network)フレームワークが提案されている。
CMSNetの構成は、未舗装/オフロードシナリオ(夜間、雨、ほこり)から新しい画像に障害物とトラフィック可能な地面を分割するように訓練された。
本研究は,学習領域を明示的なトラック境界なしに検出するための深層学習の適用,可視性障害下でのアルゴリズムの挙動,および実時間セマンティックセグメンテーションによるフィールドテストについて検討した。
新たなデータセットである神野には,8台の同期カメラを備えたオペレーティングカーから約12,000枚の画像が提示されている。
上野データセットは、類似の公開コレクションと比較してラベル付きピクセルが多数あり、鉱山の視認性の悪さを模したオフロード証明地の画像を含んでいる。
リアルタイム推論を実現するため、CMSNet CNNレイヤは、TensorRT、C++、CUDAを使用して、体系的に取り除かれ、融合された。
2つのデータセットに関する実証実験により、提案システムの有効性が検証された。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - TEDNet: Twin Encoder Decoder Neural Network for 2D Camera and LiDAR Road Detection [2.8038082486377114]
道路面の正確な推定のために,新しい畳み込みニューラルネットワークモデルを提案する。
我々のモデルは、独立カメラとLiDAR機能抽出にTwin-Decoder Neural Network(TEDNet)を用いている。
このモデルでは、カメラとLiDARデータのバードアイビュー投影を用いて、各ピクセルが路面に属するか否かのセマンティックセグメンテーションを行う。
論文 参考訳(メタデータ) (2024-05-14T08:45:34Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - SPIN Road Mapper: Extracting Roads from Aerial Images via Spatial and
Interaction Space Graph Reasoning for Autonomous Driving [64.10636296274168]
道路抽出は、自律航法システムを構築するための重要なステップである。
この問題に対して単に畳み込みニューラルネットワーク(ConvNets)を使用することは、画像内の道路セグメント間の遠い依存関係をキャプチャする非効率であるため、効果がない。
本研究では,ConvNetに接続した時,特徴写像から投影された空間空間および相互作用空間上に構築されたグラフの推論を行う空間空間グラフ推論(SPIN)モジュールを提案する。
論文 参考訳(メタデータ) (2021-09-16T03:52:17Z) - Online Clustering-based Multi-Camera Vehicle Tracking in Scenarios with
overlapping FOVs [2.6365690297272617]
マルチターゲットマルチカメラ(MTMC)車両追跡は,視覚的交通監視において重要な課題である。
本稿では,MTMC追跡のための新しい低遅延オンライン手法を提案する。
論文 参考訳(メタデータ) (2021-02-08T09:55:55Z) - Low-latency Perception in Off-Road Dynamical Low Visibility Environments [0.9142067094647588]
本研究は、未舗装道路とオフロード環境に特化した自動運転車と先進運転支援システムを提案する。
未舗装とオフロードの異なる環境の約12,000枚の画像が収集され、ラベルがつけられた。
畳み込みニューラルネットワークを使用して、車が通過可能な障害領域を分割するように訓練しました。
論文 参考訳(メタデータ) (2020-12-23T22:54:43Z) - Artificial Intelligence Enabled Traffic Monitoring System [3.085453921856008]
本稿では,深層畳み込みニューラルネットワークを用いたリアルタイム交通映像の自動監視手法を提案する。
提案システムは、さまざまなトラフィック監視ニーズを自動化するために、最先端のディープラーニングアルゴリズムをデプロイする。
論文 参考訳(メタデータ) (2020-10-02T22:28:02Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - DAWN: Vehicle Detection in Adverse Weather Nature Dataset [4.09920839425892]
本研究では,DAWNと呼ばれる各種気象条件下で収集した実世界の画像からなる新しいデータセットを提案する。
このデータセットは、実際の交通環境から1000枚の画像を集め、霧、雪、雨、砂嵐の4つの天候条件に分けられる。
このデータは,車両検知システムの性能に及ぼす悪天候の影響の解明に有効である。
論文 参考訳(メタデータ) (2020-08-12T15:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。