論文の概要: Real-time Keypoints Detection for Autonomous Recovery of the Unmanned
Ground Vehicle
- arxiv url: http://arxiv.org/abs/2107.12852v1
- Date: Tue, 27 Jul 2021 14:36:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:38:09.816652
- Title: Real-time Keypoints Detection for Autonomous Recovery of the Unmanned
Ground Vehicle
- Title(参考訳): 無人地上車両の自律回収のためのリアルタイムキーポイント検出
- Authors: Jie Li, Sheng Zhang, Kai Han, Xia Yuan, Chunxia Zhao, Yu Liu
- Abstract要約: 本稿では,低コストな単眼視システムを備えた新しい自律的回復フレームワークを提案する。
小型UGVのキーポイントを検出するために,UGV-KPNetと呼ばれる軽量畳み込みニューラルネットワークを導入する。
私たちは、UGVの大規模な実世界のキーポイントデータセットを最初に作成しました。
- 参考スコア(独自算出の注目度): 23.81488235557878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The combination of a small unmanned ground vehicle (UGV) and a large unmanned
carrier vehicle allows more flexibility in real applications such as rescue in
dangerous scenarios. The autonomous recovery system, which is used to guide the
small UGV back to the carrier vehicle, is an essential component to achieve a
seamless combination of the two vehicles. This paper proposes a novel
autonomous recovery framework with a low-cost monocular vision system to
provide accurate positioning and attitude estimation of the UGV during
navigation. First, we introduce a light-weight convolutional neural network
called UGV-KPNet to detect the keypoints of the small UGV from the images
captured by a monocular camera. UGV-KPNet is computationally efficient with a
small number of parameters and provides pixel-level accurate keypoints
detection results in real-time. Then, six degrees of freedom pose is estimated
using the detected keypoints to obtain positioning and attitude information of
the UGV. Besides, we are the first to create a large-scale real-world keypoints
dataset of the UGV. The experimental results demonstrate that the proposed
system achieves state-of-the-art performance in terms of both accuracy and
speed on UGV keypoint detection, and can further boost the 6-DoF pose
estimation for the UGV.
- Abstract(参考訳): 小型無人地上機(ugv)と大型無人輸送機の組み合わせは、危険なシナリオでの救助のような実際の用途においてより柔軟である。
小型のUGVを空母車に誘導するために使用される自律回収システムは、両車両のシームレスな組み合わせを実現する上で不可欠な要素である。
本稿では,ナビゲーション中のUGVの正確な位置推定と姿勢推定を行うために,低コストな単眼視システムを備えた新しい自律回収フレームワークを提案する。
まず、単眼カメラで捉えた画像から小さなUGVのキーポイントを検出するために、UGV-KPNetと呼ばれる軽量畳み込みニューラルネットワークを導入する。
UGV-KPNetは少ないパラメータで計算効率が良く、リアルタイムに画素レベルの正確なキーポイント検出結果を提供する。
そして、検出されたキーポイントを用いて6自由度ポーズを推定し、UGVの位置及び姿勢情報を得る。
さらに、UGVの大規模実世界のキーポイントデータセットを最初に作成しました。
実験結果から,UGVキーポイント検出における精度と速度の両面での最先端性能を実現し,UGVの6-DoFポーズ推定をさらに促進できることが示された。
関連論文リスト
- Enhancing Track Management Systems with Vehicle-To-Vehicle Enabled Sensor Fusion [0.0]
本稿では,新しいV2V対応トラック管理システムを提案する。
中心となるイノベーションは、V2V通信を通じて検証された融合検出からなる独立した優先度トラックリストの作成にある。
本システムでは,V2X信号のファルシフィケーションが,認識センサからの検知を用いて,初期車両識別プロセスを通じて発生することの意義を考察する。
論文 参考訳(メタデータ) (2024-04-26T20:54:44Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Visual Saliency Detection in Advanced Driver Assistance Systems [7.455416595124159]
本稿では,ドライバの眠気検知システムと,サリエンシに基づく情景理解パイプラインを組み合わせたインテリジェントシステムを提案する。
我々は、運転者を監視するために、ハンドルに埋め込まれた革新的なバイオセンサーを使用している。
収集したPSG時系列を分類するために、専用の1D時間深部畳み込みネットワークが考案された。
論文 参考訳(メタデータ) (2023-07-26T15:41:54Z) - Generating Evidential BEV Maps in Continuous Driving Space [13.073542165482566]
本稿では,GevBEV という完全確率モデルを提案する。
これは2次元駆動空間を、点ベースの空間ガウス分布を持つ確率的バードアイビュー (BEV) マップとして解釈する。
GevBEVは、学習した不確実性から共有する最も重要な情報のみを選択することで、通信オーバーヘッドを低減する。
論文 参考訳(メタデータ) (2023-02-06T17:05:50Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - RV-FuseNet: Range View Based Fusion of Time-Series LiDAR Data for Joint
3D Object Detection and Motion Forecasting [13.544498422625448]
本稿では,共同検出と軌道推定のための新しいエンドツーエンドアプローチであるRV-FuseNetを提案する。
広範に使用されている鳥眼ビュー(BEV)表現の代わりに,LiDARデータのネイティブレンジビュー(RV)表現を利用する。
提案手法は,既存の最先端技術よりも動作予測性能を著しく向上することを示す。
論文 参考訳(メタデータ) (2020-05-21T19:22:27Z) - End-to-End Vision-Based Adaptive Cruise Control (ACC) Using Deep
Reinforcement Learning [12.100265694989627]
本稿では,Double Deep Q-networksという深層強化学習手法を提案し,エンドツーエンドの視覚ベースの適応クルーズ制御(ACC)システムを設計した。
強化学習モデルでは, 後続距離とスロットル/ブレーキ力に付随するよく設計された報酬関数が実装された。
提案システムは, 先行車両の異なる速度軌跡に適応し, リアルタイムに動作可能である。
論文 参考訳(メタデータ) (2020-01-24T20:02:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。