論文の概要: Deep Reinforcement Learning for Tactile Robotics: Learning to Type on a
Braille Keyboard
- arxiv url: http://arxiv.org/abs/2008.02646v1
- Date: Thu, 6 Aug 2020 13:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:38:44.541237
- Title: Deep Reinforcement Learning for Tactile Robotics: Learning to Type on a
Braille Keyboard
- Title(参考訳): 触覚ロボットのための深層強化学習:点字キーボードで入力する学習
- Authors: Alex Church, John Lloyd, Raia Hadsell and Nathan F. Lepora
- Abstract要約: 触覚強化学習の開発を促進するために,新しい環境と課題セットを提案する。
4つのタスクが提案され、矢印からアルファベットキー、離散的なアクションから連続的なアクションまでの難易度が進んでいる。
また、物理環境から触覚データをサンプリングしてシミュレーションする。
これらのタスクはシミュレーションでうまく学習でき、実際のロボットでは4つのうち3つが学習できる。
- 参考スコア(独自算出の注目度): 20.36472324887897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial touch would seem well-suited for Reinforcement Learning (RL),
since both paradigms rely on interaction with an environment. Here we propose a
new environment and set of tasks to encourage development of tactile
reinforcement learning: learning to type on a braille keyboard. Four tasks are
proposed, progressing in difficulty from arrow to alphabet keys and from
discrete to continuous actions. A simulated counterpart is also constructed by
sampling tactile data from the physical environment. Using state-of-the-art
deep RL algorithms, we show that all of these tasks can be successfully learnt
in simulation, and 3 out of 4 tasks can be learned on the real robot. A lack of
sample efficiency currently makes the continuous alphabet task impractical on
the robot. To the best of our knowledge, this work presents the first
demonstration of successfully training deep RL agents in the real world using
observations that exclusively consist of tactile images. To aid future research
utilising this environment, the code for this project has been released along
with designs of the braille keycaps for 3D printing and a guide for recreating
the experiments. A brief video summary is also available at
https://youtu.be/eNylCA2uE_E.
- Abstract(参考訳): どちらのパラダイムも環境とのインタラクションに依存しているため、人工的なタッチは強化学習(rl)に適しているように思える。
そこで本研究では,ブライルキーボードの入力学習という,触覚強化学習の開発を促進するための,新しい環境とタスクセットを提案する。
4つのタスクが提案され、矢印からアルファベットキー、離散的から連続的なアクションまで難易度が高い。
また、物理環境から触覚データをサンプリングしてシミュレーションを行う。
最先端の深層RLアルゴリズムを用いて、これらのタスクはシミュレーションでうまく学習でき、実際のロボットで4つのうち3つが学習可能であることを示す。
現在サンプル効率の欠如は、連続アルファベットタスクをロボットに非現実的にさせる。
我々の知る限り、本研究は触覚画像のみからなる観察結果を用いて、現実世界における深部RLエージェントのトレーニングに成功した最初の実演である。
この環境を利用した将来の研究を支援するため、このプロジェクトのコードは、3Dプリンティングのための点字キーキャップの設計と実験を再現するためのガイドと共にリリースされた。
簡単なビデオ要約もhttps://youtu.be/enylca2ue_eで公開されている。
関連論文リスト
- Enhancing Robot Learning through Learned Human-Attention Feature Maps [6.724036710994883]
ロボット学習にフォーカスポイントに関する補助情報を埋め込むことで、学習プロセスの効率性と堅牢性が向上すると考えられる。
本稿では,人間の注意を近似予測モデルでモデル化し,エミュレートするための新しいアプローチを提案する。
我々は,物体検出と模倣学習という2つの学習課題にアプローチを試行する。
論文 参考訳(メタデータ) (2023-08-29T14:23:44Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Learning Neuro-Symbolic Skills for Bilevel Planning [63.388694268198655]
意思決定は、連続したオブジェクト中心の状態、継続的なアクション、長い地平線、まばらなフィードバックを持つロボット環境では難しい。
タスク・アンド・モーション・プランニング(TAMP)のような階層的なアプローチは、意思決定を2つ以上の抽象レベルに分解することでこれらの課題に対処する。
我々の主な貢献は、オペレーターとサンプルラーを組み合わせたパラメータ化警察の学習方法である。
論文 参考訳(メタデータ) (2022-06-21T19:01:19Z) - Accelerating Robot Learning of Contact-Rich Manipulations: A Curriculum
Learning Study [4.045850174820418]
本稿では,Domain Randomization(DR)と組み合わせたカリキュラム学習に基づく,コンタクトリッチな操作タスクのロボット学習の高速化に関する研究を行う。
挿入タスクのような位置制御ロボットによる複雑な産業組み立てタスクに対処する。
また,おもちゃのタスクを用いたシミュレーションでのみトレーニングを行う場合においても,現実のロボットに伝達可能なポリシーを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-04-27T11:08:39Z) - Continual Learning from Demonstration of Robotics Skills [5.573543601558405]
ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-14T16:26:52Z) - Inducing Structure in Reward Learning by Learning Features [31.413656752926208]
本稿では,その特徴を学習するための新しいタイプの人間入力と,それを生の状態空間から複雑な特徴を学習するアルゴリズムを紹介する。
当社の手法は,すべての機能をスクラッチから学ばなければならないような設定や,いくつかの機能が知られている場所で実証しています。
論文 参考訳(メタデータ) (2022-01-18T16:02:29Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Hierarchical Affordance Discovery using Intrinsic Motivation [69.9674326582747]
本研究では,移動ロボットの価格学習を支援するために,本質的なモチベーションを用いたアルゴリズムを提案する。
このアルゴリズムは、事前にプログラムされたアクションなしで、相互に関連のある価格を自律的に発見し、学習し、適応することができる。
一度学習すると、これらの余裕はアルゴリズムによって様々な困難を伴うタスクを実行するために一連のアクションを計画するために使われる。
論文 参考訳(メタデータ) (2020-09-23T07:18:21Z) - Feature Expansive Reward Learning: Rethinking Human Input [31.413656752926208]
そこで我々は,ロボットが教えている特徴が表現されていない状態からロボットを誘導する新しいタイプの人間入力を紹介した。
本稿では,その特徴を生の状態空間から学習し,報酬関数に組み込むアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T17:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。