論文の概要: Automatic Acquisition of a Repertoire of Diverse Grasping Trajectories
through Behavior Shaping and Novelty Search
- arxiv url: http://arxiv.org/abs/2205.08189v1
- Date: Tue, 17 May 2022 09:17:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 14:15:56.935912
- Title: Automatic Acquisition of a Repertoire of Diverse Grasping Trajectories
through Behavior Shaping and Novelty Search
- Title(参考訳): 行動シェーピングとノベルティ探索による多種多様な把持軌跡のレパートリーの自動獲得
- Authors: Aur\'elien Morel, Yakumo Kunimoto, Alex Coninx and St\'ephane Doncieux
- Abstract要約: この問題を解決するために,多様な把握動作を生成する手法を提案する。
運動は、特定の対象位置に対するシミュレーションで生成される。
生成した動きが実際のバクスターロボットで実際に動作することを示すが、目的は、この手法を用いて大規模なデータセットを作成し、ディープラーニング手法をブートストラップすることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasping a particular object may require a dedicated grasping movement that
may also be specific to the robot end-effector. No generic and autonomous
method does exist to generate these movements without making hypotheses on the
robot or on the object. Learning methods could help to autonomously discover
relevant grasping movements, but they face an important issue: grasping
movements are so rare that a learning method based on exploration has little
chance to ever observe an interesting movement, thus creating a bootstrap
issue. We introduce an approach to generate diverse grasping movements in order
to solve this problem. The movements are generated in simulation, for
particular object positions. We test it on several simulated robots: Baxter,
Pepper and a Kuka Iiwa arm. Although we show that generated movements actually
work on a real Baxter robot, the aim is to use this method to create a large
dataset to bootstrap deep learning methods.
- Abstract(参考訳): 特定の物体をつかむには、ロボットのエンドエフェクタに特有の専用の把持動作が必要となる。
ロボットや物体に仮説を立てることなく、これらの動きを生成するジェネリックで自律的な方法は存在しない。
学習法は、関連する把持運動を自律的に発見するのに役立つが、それらは重要な問題に直面している: 把持運動は非常に稀であり、探索に基づく学習方法は、興味深い動きを観察する機会がほとんどないため、ブートストラップ問題が発生する。
この問題を解決するために,多様な把持運動を生成する手法を提案する。
運動は、特定の対象位置に対するシミュレーションで生成される。
私たちは、Baxter、Pepper、Kuka Iiwaといったシミュレーションロボットでテストしました。
生成した動きが実際のバクスターロボットで実際に動作することを示すが、目的は、この手法を使用して大規模なデータセットを作成し、ディープラーニング手法をブートストラップすることである。
関連論文リスト
- Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Naturalistic Robot Arm Trajectory Generation via Representation Learning [4.7682079066346565]
家庭環境におけるマニピュレータロボットの統合は、より予測可能な人間のようなロボットの動きの必要性を示唆している。
自然主義的な運動軌跡を生成する方法の1つは、人間のデモ隊の模倣によるものである。
本稿では,自己回帰型ニューラルネットワークを用いた自己指導型模倣学習法について検討する。
論文 参考訳(メタデータ) (2023-09-14T09:26:03Z) - Dynamic Handover: Throw and Catch with Bimanual Hands [30.206469112964033]
この問題を解決するために、ロボットアームに2本の指を取り付けたシステムを設計する。
シミュレーションにおいてマルチエージェント強化学習を用いてシステムを訓練し、実ロボットにデプロイするためのSim2Real転送を実行する。
Sim2Realのギャップを克服するために、オブジェクトの軌道予測モデルを学ぶことを含む、複数の新しいアルゴリズム設計を提供する。
論文 参考訳(メタデータ) (2023-09-11T17:49:25Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - GraspARL: Dynamic Grasping via Adversarial Reinforcement Learning [16.03016392075486]
動的把握のための逆強化学習フレームワーク,すなわちGraspARLを導入する。
本研究では,ロボットが移動体上の物体を拾い上げ,対向移動体が逃走経路を見つける「移動・放浪」ゲームとして動的把握問題を定式化する。
このようにして、運動器はトレーニング中に様々な移動軌跡を自動生成することができる。また、対向軌道で訓練されたロボットは、様々な動きパターンに一般化することができる。
論文 参考訳(メタデータ) (2022-03-04T03:25:09Z) - Learning Riemannian Manifolds for Geodesic Motion Skills [19.305285090233063]
ロボットが新しいスキルを習得し、目に見えない状況に適応するための学習フレームワークを開発する。
本研究では,測地運動技術を用いて,データ多様体上の任意の地点をロボットがどう移動させるかを示す。
ロボットは、精巧な動きパターンを特徴とする現実的なスキルを十分に学習し、再現する7-DoFロボットマニピュレータを用いて、学習フレームワークをテストする。
論文 参考訳(メタデータ) (2021-06-08T13:24:54Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Hierarchical Affordance Discovery using Intrinsic Motivation [69.9674326582747]
本研究では,移動ロボットの価格学習を支援するために,本質的なモチベーションを用いたアルゴリズムを提案する。
このアルゴリズムは、事前にプログラムされたアクションなしで、相互に関連のある価格を自律的に発見し、学習し、適応することができる。
一度学習すると、これらの余裕はアルゴリズムによって様々な困難を伴うタスクを実行するために一連のアクションを計画するために使われる。
論文 参考訳(メタデータ) (2020-09-23T07:18:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。