論文の概要: DRL: Deep Reinforcement Learning for Intelligent Robot Control --
Concept, Literature, and Future
- arxiv url: http://arxiv.org/abs/2105.13806v1
- Date: Tue, 20 Apr 2021 15:26:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 02:21:34.959583
- Title: DRL: Deep Reinforcement Learning for Intelligent Robot Control --
Concept, Literature, and Future
- Title(参考訳): DRL:知的ロボット制御のための深層強化学習 -概念・文学・未来-
- Authors: Aras Dargazany
- Abstract要約: 機械学習、コンピュータビジョン、ロボットシステムの組み合わせにより、インテリジェントロボット制御のための視覚ベースの学習フレームワークを究極の目標(ビジョンベースの学習ロボット)として提案する。
この研究は、アプリケーション非依存とプラットフォーム非依存を意味するAI(AGI)のための汎用フレームワークである学習フレームワークとして、深層強化学習を紹介している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Combination of machine learning (for generating machine intelligence),
computer vision (for better environment perception), and robotic systems (for
controlled environment interaction) motivates this work toward proposing a
vision-based learning framework for intelligent robot control as the ultimate
goal (vision-based learning robot). This work specifically introduces deep
reinforcement learning as the the learning framework, a General-purpose
framework for AI (AGI) meaning application-independent and
platform-independent. In terms of robot control, this framework is proposing
specifically a high-level control architecture independent of the low-level
control, meaning these two required level of control can be developed
separately from each other. In this aspect, the high-level control creates the
required intelligence for the control of the platform using the recorded
low-level controlling data from that same platform generated by a trainer. The
recorded low-level controlling data is simply indicating the successful and
failed experiences or sequences of experiments conducted by a trainer using the
same robotic platform. The sequences of the recorded data are composed of
observation data (input sensor), generated reward (feedback value) and action
data (output controller). For experimental platform and experiments, vision
sensors are used for perception of the environment, different kinematic
controllers create the required motion commands based on the platform
application, deep learning approaches generate the required intelligence, and
finally reinforcement learning techniques incrementally improve the generated
intelligence until the mission is accomplished by the robot.
- Abstract(参考訳): 機械学習(機械学習生成用)、コンピュータビジョン(環境認識改善用)、ロボットシステム(環境相互作用制御用)を組み合わせることで、インテリジェントロボット制御のための視覚ベースの学習フレームワークを究極の目標(ビジョンベース学習ロボット)として提案する。
この研究は、アプリケーション非依存とプラットフォーム非依存を意味するAI(AGI)のための汎用フレームワークである学習フレームワークとして、深層強化学習を紹介している。
ロボット制御の観点では、このフレームワークは特に低レベル制御とは独立して高レベル制御アーキテクチャを提案する。
この面では、高レベル制御は、トレーナーが生成した同じプラットフォームから記録された低レベル制御データを使用して、プラットフォームの制御に必要なインテリジェンスを生成する。
記録された低レベル制御データは、単に同じロボットプラットフォームを使用してトレーナーが行った成功し失敗した経験または実験のシーケンスを示す。
記録されたデータのシーケンスは、観測データ(入力センサ)、生成された報酬(フィードバック値)、およびアクションデータ(出力コントローラ)からなる。
実験用プラットフォームや実験用では、視覚センサが環境の知覚に使われ、異なるキネマティックコントローラがプラットフォームアプリケーションに基づいて必要な動作コマンドを作成し、深層学習アプローチが必要な知性を生成し、最終的にロボットによってミッションが達成されるまで、生成されたインテリジェンスを漸進的に改善する。
関連論文リスト
- RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - A Reinforcement Learning Approach for Robotic Unloading from Visual
Observations [1.420663986837751]
本研究では,視覚的観察からロボットを降ろす問題に焦点をあてる。
本稿では,ハイレベルな意思決定モジュールと古典的な動作制御を組み合わせた階層型コントローラ構造を提案する。
本実験は,これらの要素が学習性能の向上に重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2023-09-12T22:22:28Z) - Using Knowledge Representation and Task Planning for Robot-agnostic
Skills on the Example of Contact-Rich Wiping Tasks [44.99833362998488]
本研究では,知識表現,タスク計画,スキル実装の自動選択を利用した単一のロボットスキルを,異なるコンテキストで実行可能であることを示す。
このスキルベースの制御プラットフォームが、異なるロボットシステム上でのコンタクトリッチなワイピングタスクでこれをどのように実現できるかを実証する。
論文 参考訳(メタデータ) (2023-08-27T21:17:32Z) - Exploring Visual Pre-training for Robot Manipulation: Datasets, Models
and Methods [14.780597545674157]
本稿では,3つの基本的視点から,視覚的事前学習がロボット操作作業に及ぼす影響について検討する。
自己教師型学習と教師型学習を組み合わせた視覚的事前学習方式Vi-PRoMを提案する。
論文 参考訳(メタデータ) (2023-08-07T14:24:52Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Active Predicting Coding: Brain-Inspired Reinforcement Learning for
Sparse Reward Robotic Control Problems [79.07468367923619]
ニューラルジェネレーティブ・コーディング(NGC)の神経認知計算フレームワークによるロボット制御へのバックプロパゲーションフリーアプローチを提案する。
我々は、スパース報酬から動的オンライン学習を容易にする強力な予測符号化/処理回路から完全に構築されたエージェントを設計する。
提案するActPCエージェントは,スパース(外部)報酬信号に対して良好に動作し,複数の強力なバックプロップベースのRLアプローチと競合し,性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-09-19T16:49:32Z) - Learning to Fly -- a Gym Environment with PyBullet Physics for
Reinforcement Learning of Multi-agent Quadcopter Control [0.0]
本稿では,Bullet物理エンジンに基づく複数クワッドコプターのオープンソース環境を提案する。
マルチエージェントおよびビジョンベースの強化学習インターフェース、および現実的な衝突と空力効果のサポートは、私たちの知識の最高に、その種の最初のものにします。
論文 参考訳(メタデータ) (2021-03-03T02:47:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。