論文の概要: Real-World Dexterous Object Manipulation based Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2112.04893v1
- Date: Mon, 22 Nov 2021 02:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-12 15:46:19.721447
- Title: Real-World Dexterous Object Manipulation based Deep Reinforcement
Learning
- Title(参考訳): 深層強化学習に基づく実世界デクスタラス物体操作
- Authors: Qingfeng Yao, Jilong Wang, Shuyu Yang
- Abstract要約: ロボットの制御に深層強化学習を用いる方法を示す。
この枠組みは, 深層強化学習の低サンプリング効率の欠点を低減させる。
我々のアルゴリズムはシミュレーションで訓練され、微調整なしで現実に移行した。
- 参考スコア(独自算出の注目度): 3.4493195428573613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning has shown its advantages in real-time
decision-making based on the state of the agent. In this stage, we solved the
task of using a real robot to manipulate the cube to a given trajectory. The
task is broken down into different procedures and we propose a hierarchical
structure, the high-level deep reinforcement learning model selects appropriate
contact positions and the low-level control module performs the position
control under the corresponding trajectory. Our framework reduces the
disadvantage of low sample efficiency of deep reinforcement learning and
lacking adaptability of traditional robot control methods. Our algorithm is
trained in simulation and migrated to reality without fine-tuning. The
experimental results show the effectiveness of our method both simulation and
reality. Our code and video can be found at
https://github.com/42jaylonw/RRC2021ThreeWolves and
https://youtu.be/Jr176xsn9wg.
- Abstract(参考訳): 深層強化学習はエージェントの状態に基づくリアルタイム意思決定においてその優位性を示している。
この段階では、実際のロボットを使ってキューブを与えられた軌道に操作するという課題を解決した。
タスクを異なる手順に分割し、階層構造を提案し、高レベル深部強化学習モデルが適切な接触位置を選択し、低レベル制御モジュールが対応する軌道の下で位置制御を行う。
本フレームワークは,深層強化学習の低サンプル効率の欠点を低減し,従来のロボット制御手法の適応性を欠く。
我々のアルゴリズムはシミュレーションで訓練され、微調整なしで現実に移行した。
実験の結果,シミュレーションと現実の両方において本手法の有効性が示された。
私たちのコードとビデオはhttps://github.com/42jaylonw/rrc2021threewolvesとhttps://youtu.be/jr176xsn9wgにあります。
関連論文リスト
- LeTO: Learning Constrained Visuomotor Policy with Differentiable Trajectory Optimization [1.1602089225841634]
本稿では,制約付きビジュモータポリシーの学習手法であるLeTOを紹介した。
シミュレーションおよび実ロボットにおけるLeTOの定量的評価を行った。
論文 参考訳(メタデータ) (2024-01-30T23:18:35Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - DTC: Deep Tracking Control [16.2850135844455]
本研究では,両世界の強靭性,フット配置精度,地形の一般化を両世界の利点と組み合わせたハイブリッド制御アーキテクチャを提案する。
深層ニューラルネットワークポリシは、最適化された足場を追跡することを目的として、シミュレーションでトレーニングされている。
モデルベースに比べて滑りやすい地盤や変形可能な地盤が存在する場合の強靭性を示す。
論文 参考訳(メタデータ) (2023-09-27T07:57:37Z) - Obstacle Avoidance for Robotic Manipulator in Joint Space via Improved
Proximal Policy Optimization [6.067589886362815]
本稿では,6-DoFマニピュレータのタスク空間から関節空間にマップするために,改良されたPPOアルゴリズムを用いて深層ニューラルネットワークを訓練する。
実ロボットでそのようなタスクを訓練するのは時間を要するので、モデルを訓練するためのシミュレーション環境を開発する。
実験結果から,ロボットは非構造環境下で1つの目標をトラッキングしたり,複数の目標に到達することができた。
論文 参考訳(メタデータ) (2022-10-03T10:21:57Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Accelerated Policy Learning with Parallel Differentiable Simulation [59.665651562534755]
微分可能シミュレータと新しいポリシー学習アルゴリズム(SHAC)を提案する。
本アルゴリズムは,スムーズな批判機能により局所最小化の問題を軽減する。
現状のRLと微分可能なシミュレーションベースアルゴリズムと比較して,サンプル効率と壁面時間を大幅に改善した。
論文 参考訳(メタデータ) (2022-04-14T17:46:26Z) - DiffSkill: Skill Abstraction from Differentiable Physics for Deformable
Object Manipulations with Tools [96.38972082580294]
DiffSkillは、変形可能なオブジェクト操作タスクを解決するために、スキル抽象化に微分可能な物理シミュレータを使用する新しいフレームワークである。
特に、勾配に基づくシミュレーターから個々のツールを用いて、まず短距離のスキルを得る。
次に、RGBD画像を入力として取り込む実演軌跡から、ニューラルネットワークの抽象体を学習する。
論文 参考訳(メタデータ) (2022-03-31T17:59:38Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - Passing Through Narrow Gaps with Deep Reinforcement Learning [2.299414848492227]
本稿では,小さな隙間を自律的に航行する深層強化学習手法を提案する。
我々はまず,ロボットとギャップとの接触が必要な小さなギャップを乗り越えるために,ギャップ行動ポリシーを学習する。
シミュレーション実験では,操作者が手動でギャップ動作を動作させると,93%の成功率が得られる。
実際のロボット実験では、手動アクティベーションで73%、自律的な行動選択で40%の成功率を達成した。
論文 参考訳(メタデータ) (2021-03-06T00:10:41Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z) - NEARL: Non-Explicit Action Reinforcement Learning for Robotic Control [15.720231070808696]
本稿では,明示的な動作を伴わない新しい階層型強化学習フレームワークを提案する。
我々のメタポリシーは次の最適状態の操作を試み、実際の動作は逆ダイナミクスモデルによって生成される。
我々のフレームワークでは、広く利用可能な州のみのデモンストレーションを模倣学習に効果的に活用することができる。
論文 参考訳(メタデータ) (2020-11-02T15:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。