論文の概要: Deep Reinforcement Learning for Tactile Robotics: Learning to Type on a
Braille Keyboard
- arxiv url: http://arxiv.org/abs/2008.02646v1
- Date: Thu, 6 Aug 2020 13:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:38:44.541237
- Title: Deep Reinforcement Learning for Tactile Robotics: Learning to Type on a
Braille Keyboard
- Title(参考訳): 触覚ロボットのための深層強化学習:点字キーボードで入力する学習
- Authors: Alex Church, John Lloyd, Raia Hadsell and Nathan F. Lepora
- Abstract要約: 触覚強化学習の開発を促進するために,新しい環境と課題セットを提案する。
4つのタスクが提案され、矢印からアルファベットキー、離散的なアクションから連続的なアクションまでの難易度が進んでいる。
また、物理環境から触覚データをサンプリングしてシミュレーションする。
これらのタスクはシミュレーションでうまく学習でき、実際のロボットでは4つのうち3つが学習できる。
- 参考スコア(独自算出の注目度): 20.36472324887897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial touch would seem well-suited for Reinforcement Learning (RL),
since both paradigms rely on interaction with an environment. Here we propose a
new environment and set of tasks to encourage development of tactile
reinforcement learning: learning to type on a braille keyboard. Four tasks are
proposed, progressing in difficulty from arrow to alphabet keys and from
discrete to continuous actions. A simulated counterpart is also constructed by
sampling tactile data from the physical environment. Using state-of-the-art
deep RL algorithms, we show that all of these tasks can be successfully learnt
in simulation, and 3 out of 4 tasks can be learned on the real robot. A lack of
sample efficiency currently makes the continuous alphabet task impractical on
the robot. To the best of our knowledge, this work presents the first
demonstration of successfully training deep RL agents in the real world using
observations that exclusively consist of tactile images. To aid future research
utilising this environment, the code for this project has been released along
with designs of the braille keycaps for 3D printing and a guide for recreating
the experiments. A brief video summary is also available at
https://youtu.be/eNylCA2uE_E.
- Abstract(参考訳): どちらのパラダイムも環境とのインタラクションに依存しているため、人工的なタッチは強化学習(rl)に適しているように思える。
そこで本研究では,ブライルキーボードの入力学習という,触覚強化学習の開発を促進するための,新しい環境とタスクセットを提案する。
4つのタスクが提案され、矢印からアルファベットキー、離散的から連続的なアクションまで難易度が高い。
また、物理環境から触覚データをサンプリングしてシミュレーションを行う。
最先端の深層RLアルゴリズムを用いて、これらのタスクはシミュレーションでうまく学習でき、実際のロボットで4つのうち3つが学習可能であることを示す。
現在サンプル効率の欠如は、連続アルファベットタスクをロボットに非現実的にさせる。
我々の知る限り、本研究は触覚画像のみからなる観察結果を用いて、現実世界における深部RLエージェントのトレーニングに成功した最初の実演である。
この環境を利用した将来の研究を支援するため、このプロジェクトのコードは、3Dプリンティングのための点字キーキャップの設計と実験を再現するためのガイドと共にリリースされた。
簡単なビデオ要約もhttps://youtu.be/enylca2ue_eで公開されている。
関連論文リスト
- Image-Based Deep Reinforcement Learning with Intrinsically Motivated Stimuli: On the Execution of Complex Robotic Tasks [2.1040342571709885]
本研究は, 内在的モチベーション理論に触発されて, 新規性と驚きの内在的刺激が, 複雑で軽微な環境における探索改善に役立つと仮定した。
TD3 のイメージベース拡張である textitNaSA-TD3 で直接学習できる新しいサンプル効率手法を提案する。
実験により、NaSA-TD3は訓練が容易であり、シミュレーション環境と実世界の環境の両方において、複雑な連続制御ロボットタスクに取り組む効率的な方法であることが示された。
論文 参考訳(メタデータ) (2024-07-31T05:11:06Z) - Affordance-Guided Reinforcement Learning via Visual Prompting [51.361977466993345]
Keypoint-based Affordance Guidance for Improvements (KAGI) は、視覚言語モデル(VLM)によって形成される報酬を自律的なRLに活用する手法である。
自然言語記述によって指定された実世界の操作タスクにおいて、KAGIは自律的なRLのサンプル効率を改善し、20Kのオンライン微調整ステップでタスク完了を成功させる。
論文 参考訳(メタデータ) (2024-07-14T21:41:29Z) - LLARVA: Vision-Action Instruction Tuning Enhances Robot Learning [50.99807031490589]
LLARVAは,ロボット学習タスク,シナリオ,環境を統一するための,新しい指導指導法で訓練されたモデルである。
我々は,Open X-Embodimentデータセットから8.5Mの画像-視覚的トレースペアを生成し,モデルを事前学習する。
実験によって強い性能が得られ、LLARVAは現代のいくつかのベースラインと比較してよく機能することを示した。
論文 参考訳(メタデータ) (2024-06-17T17:55:29Z) - Enhancing Robot Learning through Learned Human-Attention Feature Maps [6.724036710994883]
ロボット学習にフォーカスポイントに関する補助情報を埋め込むことで、学習プロセスの効率性と堅牢性が向上すると考えられる。
本稿では,人間の注意を近似予測モデルでモデル化し,エミュレートするための新しいアプローチを提案する。
我々は,物体検出と模倣学習という2つの学習課題にアプローチを試行する。
論文 参考訳(メタデータ) (2023-08-29T14:23:44Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Learning Neuro-Symbolic Skills for Bilevel Planning [63.388694268198655]
意思決定は、連続したオブジェクト中心の状態、継続的なアクション、長い地平線、まばらなフィードバックを持つロボット環境では難しい。
タスク・アンド・モーション・プランニング(TAMP)のような階層的なアプローチは、意思決定を2つ以上の抽象レベルに分解することでこれらの課題に対処する。
我々の主な貢献は、オペレーターとサンプルラーを組み合わせたパラメータ化警察の学習方法である。
論文 参考訳(メタデータ) (2022-06-21T19:01:19Z) - Accelerating Robot Learning of Contact-Rich Manipulations: A Curriculum
Learning Study [4.045850174820418]
本稿では,Domain Randomization(DR)と組み合わせたカリキュラム学習に基づく,コンタクトリッチな操作タスクのロボット学習の高速化に関する研究を行う。
挿入タスクのような位置制御ロボットによる複雑な産業組み立てタスクに対処する。
また,おもちゃのタスクを用いたシミュレーションでのみトレーニングを行う場合においても,現実のロボットに伝達可能なポリシーを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-04-27T11:08:39Z) - Inducing Structure in Reward Learning by Learning Features [31.413656752926208]
本稿では,その特徴を学習するための新しいタイプの人間入力と,それを生の状態空間から複雑な特徴を学習するアルゴリズムを紹介する。
当社の手法は,すべての機能をスクラッチから学ばなければならないような設定や,いくつかの機能が知られている場所で実証しています。
論文 参考訳(メタデータ) (2022-01-18T16:02:29Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Hierarchical Affordance Discovery using Intrinsic Motivation [69.9674326582747]
本研究では,移動ロボットの価格学習を支援するために,本質的なモチベーションを用いたアルゴリズムを提案する。
このアルゴリズムは、事前にプログラムされたアクションなしで、相互に関連のある価格を自律的に発見し、学習し、適応することができる。
一度学習すると、これらの余裕はアルゴリズムによって様々な困難を伴うタスクを実行するために一連のアクションを計画するために使われる。
論文 参考訳(メタデータ) (2020-09-23T07:18:21Z) - Feature Expansive Reward Learning: Rethinking Human Input [31.413656752926208]
そこで我々は,ロボットが教えている特徴が表現されていない状態からロボットを誘導する新しいタイプの人間入力を紹介した。
本稿では,その特徴を生の状態空間から学習し,報酬関数に組み込むアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T17:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。