論文の概要: Local Navigation and Docking of an Autonomous Robot Mower using
Reinforcement Learning and Computer Vision
- arxiv url: http://arxiv.org/abs/2101.06248v3
- Date: Tue, 2 Mar 2021 15:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 12:53:29.197619
- Title: Local Navigation and Docking of an Autonomous Robot Mower using
Reinforcement Learning and Computer Vision
- Title(参考訳): 強化学習とコンピュータビジョンを用いた自律型ロボット芝刈り機の局所ナビゲーションとドッキング
- Authors: Ali Taghibakhshi, Nathan Ogden, Matthew West
- Abstract要約: 我々はjohn deere tango自動芝刈り機のための視覚のみのナビゲーションとドッキング制御システムを示す。
システムは任意の初期位置と向きからセンチメートルレベルの精度でドッキングすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We demonstrate a successful navigation and docking control system for the
John Deere Tango autonomous mower, using only a single camera as the input.
This vision-only system is of interest because it is inexpensive, simple for
production, and requires no external sensing. This is in contrast to existing
systems that rely on integrated position sensors and global positioning system
(GPS) technologies. To produce our system we combined a state-of-the-art object
detection architecture, You Only Look Once (YOLO), with a reinforcement
learning (RL) architecture, Double Deep QNetworks (Double DQN). The object
detection network identifies features on the mower and passes its output to the
RL network, providing it with a low-dimensional representation that enables
rapid and robust training. Finally, the RL network learns how to navigate the
machine to the desired spot in a custom simulation environment. When tested on
mower hardware, the system is able to dock with centimeter-level accuracy from
arbitrary initial locations and orientations.
- Abstract(参考訳): 本稿では,John Deere Tango自動芝刈り機のナビゲーションおよびドッキング制御システムについて,単一のカメラのみを入力として実演する。
このビジョンのみのシステムは、安価で製造が簡単で外部センサーを必要としないため、興味深い。
これは、統合位置センサとgps(global positioning system)技術に依存する既存のシステムとは対照的である。
システムを構築するために、最先端のオブジェクト検出アーキテクチャであるYou Only Look Once (YOLO)と強化学習(RL)アーキテクチャであるDouble Deep QNetworks (Double DQN)を組み合わせた。
オブジェクト検出ネットワークは、芝刈り機上の特徴を特定し、その出力をRLネットワークに渡すことで、高速で堅牢なトレーニングを可能にする低次元表現を提供する。
最後に、RLネットワークは、カスタムシミュレーション環境において、マシンを所望の場所にナビゲートする方法を学ぶ。
芝刈り機でテストすると、システムは任意の初期位置と方向からセンチメートルレベルの精度でドッキングできる。
関連論文リスト
- Object Depth and Size Estimation using Stereo-vision and Integration with SLAM [2.122581579741322]
自律ロボットにおけるLiDARを補完する高精度な立体視手法を提案する。
このシステムは、高度な立体視に基づく物体検出を使用して、有形物体と非有形物体の両方を検出する。
深さと大きさの情報はSLAMプロセスに統合され、複雑な環境でロボットのナビゲーション能力を高める。
論文 参考訳(メタデータ) (2024-09-11T21:12:48Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Autonomous Marker-less Rapid Aerial Grasping [5.892028494793913]
本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
論文 参考訳(メタデータ) (2022-11-23T16:25:49Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - StereoSpike: Depth Learning with a Spiking Neural Network [0.0]
深度推定のためのエンドツーエンドのニューロモルフィック手法を提案する。
我々はSpiking Neural Network (SNN) と、StereoSpikeという名前のU-Netライクなエンコーダデコーダアーキテクチャを用いている。
このアーキテクチャは、スポーキング以外のアーキテクチャよりも、非常によく一般化されていることを実証します。
論文 参考訳(メタデータ) (2021-09-28T14:11:36Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - Distributed Reinforcement Learning of Targeted Grasping with Active
Vision for Mobile Manipulators [4.317864702902075]
移動体マニピュレータのための最初のRLベースのシステムを提案する。これは、(a)対象対象物に対する目標把握の一般化を実現し、(b)隠蔽対象物による乱れたシーンの複雑な把握戦略を学習し、(c)可動式手首カメラでアクティブなビジョンを実行し、オブジェクトの発見をより良くする。
シミュレーション環境でシステムのトレーニングと評価を行い,性能向上,動作解析,実環境への移動といった重要なコンポーネントを特定した。
論文 参考訳(メタデータ) (2020-07-16T02:47:48Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。