論文の概要: Learning Gentle Grasping from Human-Free Force Control Demonstration
- arxiv url: http://arxiv.org/abs/2409.10371v1
- Date: Mon, 16 Sep 2024 15:14:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 15:00:57.296131
- Title: Learning Gentle Grasping from Human-Free Force Control Demonstration
- Title(参考訳): 人間の自由力制御によるジェントルグルーピングの学習
- Authors: Mingxuan Li, Lunwei Zhang, Tiemin Li, Yao Jiang,
- Abstract要約: そこで本研究では,データサイズに制限のある人手と同様の動作を実現するために,理想的な力制御実験から把握する手法を提案する。
提案手法は,人間の実演を伴わない参照力曲線の自動生成に,既知の接触特性を持つ物体を用いる。
この方法は視覚に基づく触覚センサに効果的に適用でき、地面からの物体の緩やかで安定した把握を可能にする。
- 参考スコア(独自算出の注目度): 4.08734863805696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans can steadily and gently grasp unfamiliar objects based on tactile perception. Robots still face challenges in achieving similar performance due to the difficulty of learning accurate grasp-force predictions and force control strategies that can be generalized from limited data. In this article, we propose an approach for learning grasping from ideal force control demonstrations, to achieve similar performance of human hands with limited data size. Our approach utilizes objects with known contact characteristics to automatically generate reference force curves without human demonstrations. In addition, we design the dual convolutional neural networks (Dual-CNN) architecture which incorporating a physics-based mechanics module for learning target grasping force predictions from demonstrations. The described method can be effectively applied in vision-based tactile sensors and enables gentle and stable grasping of objects from the ground. The described prediction model and grasping strategy were validated in offline evaluations and online experiments, and the accuracy and generalizability were demonstrated.
- Abstract(参考訳): 人間は触覚の知覚に基づいて、不慣れな物体を着実に把握することができる。
ロボットは、限られたデータから一般化できる正確な把握力予測と力制御戦略の学習が困難であるため、同様のパフォーマンスを達成する上で依然として課題に直面している。
本稿では,データサイズが制限された人間の手と同じような動作を実現するために,理想的な力制御デモから把握する学習手法を提案する。
提案手法は,人間の実演を伴わない参照力曲線を自動生成するために,既知の接触特性を持つ物体を用いる。
さらに,2つの畳み込みニューラルネットワーク(Dual-CNN)アーキテクチャの設計を行った。
本手法は視覚に基づく触覚センサに効果的に適用でき, 地中からの物体の緩やかで安定した把握を可能にする。
提案した予測モデルと把握戦略をオフライン評価とオンライン実験で検証し,精度と一般化性を示した。
関連論文リスト
- Self-Supervised Learning of Grasping Arbitrary Objects On-the-Move [8.445514342786579]
本研究では3つの完全畳み込みニューラルネットワーク(FCN)モデルを導入し,視覚入力から静的グリッププリミティブ,動的グリッププリミティブ,残留移動速度誤差を予測する。
提案手法は高い把握精度とピック・アンド・プレイス効率を実現した。
論文 参考訳(メタデータ) (2024-11-15T02:59:16Z) - Learning Low-Dimensional Strain Models of Soft Robots by Looking at the Evolution of Their Shape with Application to Model-Based Control [2.058941610795796]
本稿では,低次元物理モデル学習のための合理化手法を提案する。
各種平面ソフトマニピュレータを用いたシミュレーションにより,本手法の有効性を検証した。
物理的に互換性のあるモデルを生成する方法のおかげで、学習したモデルはモデルベースの制御ポリシーと簡単に組み合わせることができる。
論文 参考訳(メタデータ) (2024-10-31T18:37:22Z) - RoboPack: Learning Tactile-Informed Dynamics Models for Dense Packing [38.97168020979433]
本稿では, 視覚と触覚を組み合わせ, 触覚インフォームド・ダイナミックスモデルを学習することでロボット操作を実現するアプローチを提案する。
提案するフレームワークであるRoboPackは、オブジェクト状態を推定するために、リカレントグラフニューラルネットワークを使用している。
我々は,非包括的操作と密包装作業に対するソフトバブル触覚センサを備えた実ロボットへのアプローチを実証する。
論文 参考訳(メタデータ) (2024-07-01T16:08:37Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - Few-Shot Learning of Force-Based Motions From Demonstration Through
Pre-training of Haptic Representation [10.553635668779911]
既存のLfD(Landing Learning from Demonstration)アプローチでは、コストのかかる人間のデモが数多く必要になります。
提案する半教師付きLfDアプローチは,学習モデルを触覚表現エンコーダとモーション生成デコーダに分解する。
これにより、数発のLfDを使用しながら、大量の教師なしデータを使い、アクセスしやすく、第1のトレーニングを前もって行うことができる。
半教師付きLfDモデルにより生成された動作を,KUKAアイワロボットアームを用いて物理ロボットハードウェア上で検証する。
論文 参考訳(メタデータ) (2023-09-08T23:42:59Z) - SoftGPT: Learn Goal-oriented Soft Object Manipulation Skills by
Generative Pre-trained Heterogeneous Graph Transformer [34.86946655775187]
家庭シーンにおけるソフトオブジェクト操作タスクは、既存のロボットスキル学習技術にとって重要な課題である。
本研究では,ソフトオブジェクト操作スキル学習モデルであるSoftGPTを提案する。
各ダウンストリームタスクに対して、ゴール指向ポリシーエージェントがトレーニングされ、その後のアクションを予測し、SoftGPTが結果を生成する。
論文 参考訳(メタデータ) (2023-06-22T05:48:22Z) - Planning for Learning Object Properties [117.27898922118946]
我々は、物体特性を象徴的な計画問題として認識するために、ニューラルネットワークを自動的に訓練する問題を定式化する。
トレーニングデータセット作成と学習プロセスを自動化するための戦略を作成するために,計画手法を使用します。
シミュレーションと実環境の両方で実験的な評価を行う。
論文 参考訳(メタデータ) (2023-01-15T09:37:55Z) - Output Feedback Tube MPC-Guided Data Augmentation for Robust, Efficient
Sensorimotor Policy Learning [49.05174527668836]
シミュレーション学習(IL)は、計算コストのかかるモデルベースセンシングと制御アルゴリズムによって提供されるデモから、計算効率のよいセンセータポリシーを生成することができる。
本研究では,ILと出力フィードバック頑健な管モデル予測コントローラを組み合わせることで,実演とデータ拡張戦略を併用し,ニューラルネットワークに基づくセンサモジュレータポリシーを効率的に学習する。
提案手法は,従来のIL法と比較して,実演効率が2桁向上した1つの実演から,ロバストなビズモータポリシーを学習できることを数値的に示す。
論文 参考訳(メタデータ) (2022-10-18T19:59:17Z) - Silver-Bullet-3D at ManiSkill 2021: Learning-from-Demonstrations and
Heuristic Rule-based Methods for Object Manipulation [118.27432851053335]
本稿では,SAPIEN ManiSkill Challenge 2021: No Interaction Trackにおいて,以下の2つのトラックを対象としたシステムの概要と比較分析を行った。
No Interactionは、事前に収集された実証軌道からの学習ポリシーのターゲットを追跡する。
このトラックでは,タスクを一連のサブタスクに分解することで,高品質なオブジェクト操作をトリガするHuristic Rule-based Method (HRM) を設計する。
各サブタスクに対して、ロボットアームに適用可能なアクションを予測するために、単純なルールベースの制御戦略が採用されている。
論文 参考訳(メタデータ) (2022-06-13T16:20:42Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。