論文の概要: Few-Shot Learning of Force-Based Motions From Demonstration Through
Pre-training of Haptic Representation
- arxiv url: http://arxiv.org/abs/2309.04640v1
- Date: Fri, 8 Sep 2023 23:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 17:16:02.474368
- Title: Few-Shot Learning of Force-Based Motions From Demonstration Through
Pre-training of Haptic Representation
- Title(参考訳): ハプティック表現の事前学習による実演からの力に基づく運動のFew-Shot学習
- Authors: Marina Y. Aoyama, Jo\~ao Moura, Namiko Saito, Sethu Vijayakumar
- Abstract要約: 既存のLfD(Landing Learning from Demonstration)アプローチでは、コストのかかる人間のデモが数多く必要になります。
提案する半教師付きLfDアプローチは,学習モデルを触覚表現エンコーダとモーション生成デコーダに分解する。
これにより、数発のLfDを使用しながら、大量の教師なしデータを使い、アクセスしやすく、第1のトレーニングを前もって行うことができる。
半教師付きLfDモデルにより生成された動作を,KUKAアイワロボットアームを用いて物理ロボットハードウェア上で検証する。
- 参考スコア(独自算出の注目度): 10.553635668779911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many contact-rich tasks, force sensing plays an essential role in adapting
the motion to the physical properties of the manipulated object. To enable
robots to capture the underlying distribution of object properties necessary
for generalising learnt manipulation tasks to unseen objects, existing Learning
from Demonstration (LfD) approaches require a large number of costly human
demonstrations. Our proposed semi-supervised LfD approach decouples the learnt
model into an haptic representation encoder and a motion generation decoder.
This enables us to pre-train the first using large amount of unsupervised data,
easily accessible, while using few-shot LfD to train the second, leveraging the
benefits of learning skills from humans. We validate the approach on the wiping
task using sponges with different stiffness and surface friction. Our results
demonstrate that pre-training significantly improves the ability of the LfD
model to recognise physical properties and generate desired wiping motions for
unseen sponges, outperforming the LfD method without pre-training. We validate
the motion generated by our semi-supervised LfD model on the physical robot
hardware using the KUKA iiwa robot arm. We also validate that the haptic
representation encoder, pre-trained in simulation, captures the properties of
real objects, explaining its contribution to improving the generalisation of
the downstream task.
- Abstract(参考訳): 多くの接触の多いタスクにおいて、力センシングは、操作対象の物理的特性に動きを適用する上で重要な役割を果たす。
ロボットが被写体に対する学習操作タスクの一般化に必要なオブジェクト特性の分散を捉えるためには、既存のlfd(learning from demonstration)アプローチは、多くの高価な人間のデモンストレーションを必要とする。
提案する半教師付きLfDアプローチは,学習モデルを触覚表現エンコーダとモーション生成デコーダに分解する。
これにより、大量の教師なしデータを使って第1に事前訓練を行え、かつ、LfDを使って第2に訓練し、人間の学習スキルの利点を活用することができる。
剛性と表面摩擦の異なるスポンジを用いたワイピング作業に対するアプローチを検証する。
以上の結果から,プレトレーニングにより,LfDモデルの物理的特性の認識能力が向上し,未確認のスポンジに対して所望のワイピング動作が生成できることが示唆された。
半教師付きLfDモデルにより生成された動作を,KUKAアイワロボットアームを用いて物理ロボットハードウェア上で検証する。
また,シミュレーションで事前学習されたハプティック表現エンコーダが実物体の特性をキャプチャし,下流タスクの一般化に寄与することを示す。
関連論文リスト
- Self-Supervised Learning of Grasping Arbitrary Objects On-the-Move [8.445514342786579]
本研究では3つの完全畳み込みニューラルネットワーク(FCN)モデルを導入し,視覚入力から静的グリッププリミティブ,動的グリッププリミティブ,残留移動速度誤差を予測する。
提案手法は高い把握精度とピック・アンド・プレイス効率を実現した。
論文 参考訳(メタデータ) (2024-11-15T02:59:16Z) - Latent Action Pretraining from Videos [156.88613023078778]
一般行動モデル(LAPA)のための潜在行動事前訓練について紹介する。
LAPA(英: LAPA)は、VLA(Vision-Language-Action)モデルに接地型ロボットアクションラベルを含まない教師なしの訓練方法である。
本稿では,ロボットアクションラベルを持たないインターネット規模のビデオから学習する手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T16:28:09Z) - Learning Gentle Grasping from Human-Free Force Control Demonstration [4.08734863805696]
そこで本研究では,データサイズに制限のある人手と同様の動作を実現するために,理想的な力制御実験から把握する手法を提案する。
提案手法は,人間の実演を伴わない参照力曲線の自動生成に,既知の接触特性を持つ物体を用いる。
この方法は視覚に基づく触覚センサに効果的に適用でき、地面からの物体の緩やかで安定した把握を可能にする。
論文 参考訳(メタデータ) (2024-09-16T15:14:53Z) - Affordance-Guided Reinforcement Learning via Visual Prompting [51.361977466993345]
Keypoint-based Affordance Guidance for Improvements (KAGI) は、視覚言語モデル(VLM)によって形成される報酬を自律的なRLに活用する手法である。
自然言語記述によって指定された実世界の操作タスクにおいて、KAGIは自律的なRLのサンプル効率を改善し、20Kのオンライン微調整ステップでタスク完了を成功させる。
論文 参考訳(メタデータ) (2024-07-14T21:41:29Z) - Conditional Neural Expert Processes for Learning Movement Primitives from Demonstration [1.9336815376402723]
条件付きニューラルネットワークプロセス(CNEP)は、異なるモードから異なる専門家ネットワークにデモを割り当てることを学ぶ。
CNEPは、軌道がどのモードに属するかの監督を必要としない。
本システムは,オンラインコンディショニング機構を用いて,環境変化へのオンザフライ適応が可能なシステムである。
論文 参考訳(メタデータ) (2024-02-13T12:52:02Z) - Movement Primitive Diffusion: Learning Gentle Robotic Manipulation of Deformable Objects [14.446751610174868]
運動原始拡散(英: Movement Primitive Diffusion、MPD)は、ロボット支援手術における模倣学習(IL)の新しい手法である。
MPDは拡散型模倣学習(DIL)の汎用性と確率的動特性プリミティブ(ProDMP)の高品質な運動生成能力を組み合わせる
実世界および実世界の様々なロボット作業におけるMPDの評価を,状態観察と画像観察の両方で行う。
論文 参考訳(メタデータ) (2023-12-15T18:24:28Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - SoftGPT: Learn Goal-oriented Soft Object Manipulation Skills by
Generative Pre-trained Heterogeneous Graph Transformer [34.86946655775187]
家庭シーンにおけるソフトオブジェクト操作タスクは、既存のロボットスキル学習技術にとって重要な課題である。
本研究では,ソフトオブジェクト操作スキル学習モデルであるSoftGPTを提案する。
各ダウンストリームタスクに対して、ゴール指向ポリシーエージェントがトレーニングされ、その後のアクションを予測し、SoftGPTが結果を生成する。
論文 参考訳(メタデータ) (2023-06-22T05:48:22Z) - ASE: Large-Scale Reusable Adversarial Skill Embeddings for Physically
Simulated Characters [123.88692739360457]
汎用運動技術により、人間は複雑な作業を行うことができる。
これらのスキルは、新しいタスクを学ぶときの振る舞いを導くための強力な先駆者も提供します。
物理シミュレーション文字のための汎用的で再利用可能なスキル埋め込みを学習するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:13:28Z) - Reinforcement Learning with Action-Free Pre-Training from Videos [95.25074614579646]
本稿では,ビデオにおける生成前学習を通じて動的理解に役立つ表現を学習するフレームワークを提案する。
我々のフレームワークは、視覚に基づく強化学習の最終性能とサンプル効率の両方を著しく改善する。
論文 参考訳(メタデータ) (2022-03-25T19:44:09Z) - Hierarchical Few-Shot Imitation with Skill Transition Models [66.81252581083199]
FIST(Few-shot Imitation with Skill Transition Models)は、オフラインデータからスキルを抽出し、それらを利用して見えないタスクに一般化するアルゴリズムである。
本稿では,FISTが新たなタスクに一般化し,ナビゲーション実験において従来のベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-19T15:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。