論文の概要: Learning Variable Compliance Control From a Few Demonstrations for Bimanual Robot with Haptic Feedback Teleoperation System
- arxiv url: http://arxiv.org/abs/2406.14990v1
- Date: Fri, 21 Jun 2024 09:03:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 14:03:36.872055
- Title: Learning Variable Compliance Control From a Few Demonstrations for Bimanual Robot with Haptic Feedback Teleoperation System
- Title(参考訳): 触覚フィードバック遠隔操作システムを用いたバイマニアルロボットのための少数のデモから可変コンプライアンス制御を学習する
- Authors: Tatsuya Kamijo, Cristian C. Beltran-Hernandez, Masashi Hamaya,
- Abstract要約: 本研究は,頑丈なロボットに対する,器用で接触に富んだ操作の教育を強化する新しいシステムを導入する。
バーチャルリアリティ(VR)コントローラを利用した遠隔操作インタフェースを内蔵しており、触覚フィードバックによるタスクデモの直感的で費用対効果の高い方法を提供するように設計されている。
本手法は, シミュレーション環境と実環境において, 単腕ロボットと両足歩行ロボットを用いて, 様々な複雑な接触操作タスクにまたがって検証されている。
- 参考スコア(独自算出の注目度): 5.497832119577795
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automating dexterous, contact-rich manipulation tasks using rigid robots is a significant challenge in robotics. Rigid robots, defined by their actuation through position commands, face issues of excessive contact forces due to their inability to adapt to contact with the environment, potentially causing damage. While compliance control schemes have been introduced to mitigate these issues by controlling forces via external sensors, they are hampered by the need for fine-tuning task-specific controller parameters. Learning from Demonstrations (LfD) offers an intuitive alternative, allowing robots to learn manipulations through observed actions. In this work, we introduce a novel system to enhance the teaching of dexterous, contact-rich manipulations to rigid robots. Our system is twofold: firstly, it incorporates a teleoperation interface utilizing Virtual Reality (VR) controllers, designed to provide an intuitive and cost-effective method for task demonstration with haptic feedback. Secondly, we present Comp-ACT (Compliance Control via Action Chunking with Transformers), a method that leverages the demonstrations to learn variable compliance control from a few demonstrations. Our methods have been validated across various complex contact-rich manipulation tasks using single-arm and bimanual robot setups in simulated and real-world environments, demonstrating the effectiveness of our system in teaching robots dexterous manipulations with enhanced adaptability and safety.
- Abstract(参考訳): 剛体ロボットを用いた、きめ細やかな、接触に富んだ操作タスクを自動化することは、ロボット工学において重要な課題である。
位置指示による動作によって定義された剛体ロボットは、環境との接触に適応できないため、過度の接触力の問題に直面し、潜在的に損傷を引き起こす可能性がある。
コンプライアンス制御スキームは、外部センサによる力の制御によってこれらの問題を緩和するために導入されているが、細調整されたタスク固有のコントローラパラメータの必要性により、それらが妨げられている。
デモから学ぶこと(LfD)は直感的な代替手段であり、ロボットは観察された動作を通じて操作を学ぶことができる。
そこで本研究では,剛体ロボットに対する,器用で接触に富んだ操作の教育を強化する新しいシステムを提案する。
まず,仮想現実感(VR)コントローラを用いた遠隔操作インタフェースを内蔵し,触覚フィードバックによるタスク実証のための直感的で費用対効果の高い方法を提案する。
第2にComp-ACT(Compliance Control via Action Chunking with Transformers)を提案する。
本手法は, ロボットに適応性や安全性を向上し, ロボットの巧妙な操作を指導する上で, 実環境とシミュレーション環境における単腕ロボットと人体ロボットのセットアップを用いて, 様々な複雑な接触操作タスクに対して検証されている。
関連論文リスト
- Zero-Cost Whole-Body Teleoperation for Mobile Manipulation [8.71539730969424]
MoMa-Teleopは、ベースモーションを強化学習エージェントに委譲する新しい遠隔操作手法である。
提案手法は,様々なロボットやタスクに対して,タスク完了時間が大幅に短縮されることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:09:45Z) - Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Learning Force Control for Legged Manipulation [18.894304288225385]
本稿では,力覚へのアクセスを必要とせず,直接力制御のためのRLポリシーを訓練する方法を提案する。
腕を持つ四足ロボットの全身制御プラットフォーム上で本手法を実証する。
足のマニピュレータに学習した全身力制御を初めて導入し、より汎用的で適応可能な脚ロボットの道を歩む。
論文 参考訳(メタデータ) (2024-05-02T15:53:43Z) - SWBT: Similarity Weighted Behavior Transformer with the Imperfect
Demonstration for Robotic Manipulation [32.78083518963342]
SWBT(Simisity Weighted Behavior Transformer)という新しいフレームワークを提案する。
SWBTは、環境との相互作用なしに、専門家と不完全なデモンストレーションの両方から効果的に学習する。
我々は、ロボット操作タスクのオフライン模倣学習環境に不完全なデモンストレーションを統合する試みを初めて行った。
論文 参考訳(メタデータ) (2024-01-17T04:15:56Z) - A Virtual Reality Teleoperation Interface for Industrial Robot
Manipulators [10.331963200885774]
市販のバーチャルリアリティインタフェースを用いて産業用ロボットマニピュレータを遠隔操作する問題に対処する。
産業プラットフォームでは、ロボットアームのVR制御に標準的プラクティスを適用することが難しいことが分かっています。
そこで我々は,産業用ロボットアームをVRインタフェースで効果的に遠隔操作できるように,命令信号処理の簡易なフィルタリング手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T13:26:23Z) - Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware [132.39281056124312]
ケーブル接続のスレッディングやバッテリーのスロットングといった細かい操作は、ロボットにとって非常に難しい。
本稿では,実演からエンド・ツー・エンドの模倣学習を行う低コストシステムを提案する。
本研究では, 動作系列の生成モデルを学習する, 単純だが斬新なアルゴリズムであるAction Chunking with Transformersを開発した。
論文 参考訳(メタデータ) (2023-04-23T19:10:53Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Training Robots without Robots: Deep Imitation Learning for
Master-to-Robot Policy Transfer [4.318590074766604]
深層模倣学習は、デモサンプルのみを必要とするため、ロボット操作に有望である。
既存の実証手法には欠点があり、双方向遠隔操作には複雑な制御方式が必要であり、高価である。
本研究は、力覚フィードバックに基づく操作タスクをロボットに教える必要がない新しいM2Rポリシー伝達システムを提案する。
論文 参考訳(メタデータ) (2022-02-19T10:55:10Z) - COCOI: Contact-aware Online Context Inference for Generalizable
Non-planar Pushing [87.7257446869134]
一般的なコンタクトリッチな操作問題は、ロボット工学における長年の課題である。
深層強化学習は、ロボット操作タスクの解決に大きな可能性を示している。
動的プロパティのコンテキスト埋め込みをオンラインにエンコードする深層RL法であるCOCOIを提案する。
論文 参考訳(メタデータ) (2020-11-23T08:20:21Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。