論文の概要: Embedded Vision for Self-Driving on Forest Roads
- arxiv url: http://arxiv.org/abs/2105.13754v1
- Date: Thu, 27 May 2021 09:05:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 03:29:25.461654
- Title: Embedded Vision for Self-Driving on Forest Roads
- Title(参考訳): 森林道路における自動運転のための組込みビジョン
- Authors: Sorin Grigorescu, Mihai Zaha, Bogdan Trasnea and Cosmin Ginerica
- Abstract要約: AMTUは、オフロードの地形を自律的にナビゲートし、軌道に沿って森林破壊や損傷が発生したかどうかを検査するように設計されたロボットシステムである。
AMTUのコアコンポーネントは組み込みビジョンモジュールで、リアルタイム環境認識に最適化されている。
本研究施設の試験軌道における実験結果について報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Forest roads in Romania are unique natural wildlife sites used for recreation
by countless tourists. In order to protect and maintain these roads, we propose
RovisLab AMTU (Autonomous Mobile Test Unit), which is a robotic system designed
to autonomously navigate off-road terrain and inspect if any deforestation or
damage occurred along tracked route. AMTU's core component is its embedded
vision module, optimized for real-time environment perception. For achieving a
high computation speed, we use a learning system to train a multi-task Deep
Neural Network (DNN) for scene and instance segmentation of objects, while the
keypoints required for simultaneous localization and mapping are calculated
using a handcrafted FAST feature detector and the Lucas-Kanade tracking
algorithm. Both the DNN and the handcrafted backbone are run in parallel on the
GPU of an NVIDIA AGX Xavier board. We show experimental results on the test
track of our research facility.
- Abstract(参考訳): ルーマニアの森林道路は、無数の観光客がレクリエーションに使用する天然の野生生物の場所である。
これらの道路を保護・維持するために,道路外を自律走行するロボットシステムであるRovisLab AMTU(Autonomous Mobile Test Unit)を提案する。
AMTUのコアコンポーネントは組み込みビジョンモジュールで、リアルタイム環境認識に最適化されている。
高速な計算を実現するために,物体のシーンとインスタンスのセグメンテーションにマルチタスクディープニューラルネットワーク(DNN)を学習する学習システムを用いて,手作りFAST特徴検出器とルーカス・カナーデ追跡アルゴリズムを用いて,同時ローカライゼーションとマッピングに必要なキーポイントを算出する。
DNNと手作りのバックボーンはどちらもNVIDIA AGX XavierボードのGPU上で並列に実行される。
本研究施設の試験軌道について実験結果を示す。
関連論文リスト
- Leveraging GNSS and Onboard Visual Data from Consumer Vehicles for Robust Road Network Estimation [18.236615392921273]
本稿では,自動運転車における道路グラフ構築の課題について述べる。
本稿では,これらの標準センサから取得したグローバルナビゲーション衛星システム(GNSS)のトレースと基本画像データについて提案する。
我々は、畳み込みニューラルネットワークを用いて、道路中心のセマンティックセグメンテーションタスクとして問題をフレーミングすることで、データの空間情報を利用する。
論文 参考訳(メタデータ) (2024-08-03T02:57:37Z) - Geo-locating Road Objects using Inverse Haversine Formula with NVIDIA
Driveworks [0.7428236410246181]
本稿では,単眼カメラを用いた道路物体の位置決め手法を提案する。
我々は,Centimeter Positioning Service (CPOS) と逆ハヴェルシン式を用いて,道路物体の正確な位置決めを行う。
論文 参考訳(メタデータ) (2024-01-15T10:38:07Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - WayFAST: Traversability Predictive Navigation for Field Robots [5.914664791853234]
本稿では,車輪付き移動ロボットの走行経路を予測するための自己教師型アプローチを提案する。
キーとなるインスピレーションは、キノダイナミックモデルを用いてローリングロボットのトラクションを推定できることです。
オンライントラクション推定に基づくトレーニングパイプラインは,他の手法よりもデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-03-22T22:02:03Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - Dynamic Fusion Module Evolves Drivable Area and Road Anomaly Detection:
A Benchmark and Algorithms [16.417299198546168]
移動ロボットにとって,乾燥領域と道路異常の同時検出は非常に重要である。
本稿では,まず,地上移動ロボットの乾性領域と道路異常検出ベンチマークを構築した。
本稿では,既存のデータ・フュージョン・ネットワークに容易にデプロイ可能なdynamic fusion module (dfm) と呼ばれる新しいモジュールを提案する。
論文 参考訳(メタデータ) (2021-03-03T14:38:27Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。