論文の概要: Mobile Robot Planner with Low-cost Cameras Using Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2012.11160v1
- Date: Mon, 21 Dec 2020 07:30:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:19:50.784066
- Title: Mobile Robot Planner with Low-cost Cameras Using Deep Reinforcement
Learning
- Title(参考訳): 深部強化学習を用いた低コストカメラを用いた移動ロボットプランナ
- Authors: Minh Q. Tran, Ngoc Q. Ly
- Abstract要約: 本研究は、深層強化学習に基づくロボットモビリティポリシーを開発する。
ロボットを市場に投入するためには、低コストの大量生産も課題だ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study develops a robot mobility policy based on deep reinforcement
learning. Since traditional methods of conventional robotic navigation depend
on accurate map reproduction as well as require high-end sensors,
learning-based methods are positive trends, especially deep reinforcement
learning. The problem is modeled in the form of a Markov Decision Process (MDP)
with the agent being a mobile robot. Its state of view is obtained by the input
sensors such as laser findings or cameras and the purpose is navigating to the
goal without any collision. There have been many deep learning methods that
solve this problem. However, in order to bring robots to market, low-cost mass
production is also an issue that needs to be addressed. Therefore, this work
attempts to construct a pseudo laser findings system based on direct depth
matrix prediction from a single camera image while still retaining stable
performances. Experiment results show that they are directly comparable with
others using high-priced sensors.
- Abstract(参考訳): 本研究は、深層強化学習に基づくロボット移動政策を開発する。
従来のロボットナビゲーションの方法は、正確な地図再現とハイエンドセンサーを必要とするため、学習に基づく方法はポジティブな傾向であり、特に深層強化学習である。
この問題はマルコフ決定プロセス(MDP)の形でモデル化され、エージェントは移動ロボットである。
その視点はレーザーアイソレーションやカメラなどの入力センサーによって得られ、目的が衝突することなく目標に向かって移動することである。
この問題を解決する深層学習手法は数多く存在する。
しかし、ロボットを市場に投入するためには、低コストの大量生産も課題となる。
そこで本研究では,安定性能を維持しつつ,単一カメラ画像からの直接深度行列予測に基づく擬似レーザ発見システムの構築を試みた。
実験の結果、他のセンサーと直接比較できることがわかった。
関連論文リスト
- Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Markerless Camera-to-Robot Pose Estimation via Self-supervised
Sim-to-Real Transfer [26.21320177775571]
本稿では,オンラインカメラ・ロボット・キャリブレーションと自己監督型トレーニング手法を備えたエンドツーエンドのポーズ推定フレームワークを提案する。
我々のフレームワークはロボットのポーズを解くための深層学習と幾何学的ビジョンを組み合わせており、パイプラインは完全に微分可能である。
論文 参考訳(メタデータ) (2023-02-28T05:55:42Z) - Image-based Pose Estimation and Shape Reconstruction for Robot
Manipulators and Soft, Continuum Robots via Differentiable Rendering [20.62295718847247]
自律システムは3D世界における動きを捉えローカライズするためにセンサーに依存しているため、計測データからの状態推定はロボットアプリケーションにとって極めて重要である。
本研究では,カメラ画像から画像に基づくロボットのポーズ推定と形状再構成を実現する。
柔らかい連続ロボットの形状再構成において,幾何学的形状プリミティブを用いる手法が高精度であり,ロボットマニピュレータの姿勢推定が可能であることを実証した。
論文 参考訳(メタデータ) (2023-02-27T18:51:29Z) - Learning Active Camera for Multi-Object Navigation [94.89618442412247]
ロボットアプリケーションでは、ロボットが複数のオブジェクトに自律的にナビゲートすることが不可欠だが、難しい。
既存のナビゲーション手法は主に固定カメラに焦点を当てており、アクティブカメラでナビゲートする試みはほとんど行われていない。
本稿では,アクティブカメラを用いて,複数の物体へのナビゲーションをより効率的に行うことを検討する。
論文 参考訳(メタデータ) (2022-10-14T04:17:30Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Robot Localization and Navigation through Predictive Processing using
LiDAR [0.0]
本稿では,レーザーセンサを用いた位置認識とナビゲーションに応用した,予測処理にインスパイアされたアプローチの実証について述べる。
我々は自己教師型学習を通してレーザ生成モデルを学び、オンライン状態推定とナビゲーションの両方を行う。
その結果,オドメトリーの欠如による粒子フィルタとの比較では,状態推定性能が向上した。
論文 参考訳(メタデータ) (2021-09-09T09:58:00Z) - Autonomous Navigation in Dynamic Environments: Deep Learning-Based
Approach [0.0]
本論文は,各スキームの長所と短所を浮き彫りにした深層学習に基づくアプローチを考察する。
畳み込みニューラルネットワーク(CNN)に基づくディープラーニング手法の1つは、ソフトウェア実装によって実現される。
本研究では, レーザースキャナの代わりに単眼カメラを使用するという基礎から, レストラン, 博物館などの屋内アプリケーションに対して, 低コストなアプローチを提案する。
論文 参考訳(メタデータ) (2021-02-03T23:20:20Z) - Deep Reinforcement learning for real autonomous mobile robot navigation
in indoor environments [0.0]
本研究では,地図やプランナーを使わずに,未知の環境下での自律型自律学習ロボットナビゲーションの概念を実証する。
ロボットの入力は、2DレーザースキャナーとRGB-Dカメラからの融合データと目標への向きのみである。
Asynchronous Advantage Actor-Critic Network(GA3C)の出力動作は、ロボットの線形および角速度である。
論文 参考訳(メタデータ) (2020-05-28T09:15:14Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。