論文の概要: LeTac-MPC: Learning Model Predictive Control for Tactile-reactive Grasping
- arxiv url: http://arxiv.org/abs/2403.04934v2
- Date: Sat, 7 Sep 2024 20:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 03:12:39.459463
- Title: LeTac-MPC: Learning Model Predictive Control for Tactile-reactive Grasping
- Title(参考訳): LeTac-MPC:Tactile-reactive Graspingのための学習モデル予測制御
- Authors: Zhengtong Xu, Yu She,
- Abstract要約: 本稿では,触覚反応性把握のための学習ベースモデル予測制御(MPC)LeTac-MPCを紹介する。
我々は高解像度触覚フィードバックを知覚できる視覚ベースの触覚センサであるGelSightを利用する。
この結果から,LeTac-MPCは動的および力的相互作用タスクと最適一般化性において最適性能を有することがわかった。
- 参考スコア(独自算出の注目度): 1.1602089225841634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasping is a crucial task in robotics, necessitating tactile feedback and reactive grasping adjustments for robust grasping of objects under various conditions and with differing physical properties. In this paper, we introduce LeTac-MPC, a learning-based model predictive control (MPC) for tactile-reactive grasping. Our approach enables the gripper to grasp objects with different physical properties on dynamic and force-interactive tasks. We utilize a vision-based tactile sensor, GelSight, which is capable of perceiving high-resolution tactile feedback that contains information on the physical properties and states of the grasped object. LeTac-MPC incorporates a differentiable MPC layer designed to model the embeddings extracted by a neural network (NN) from tactile feedback. This design facilitates convergent and robust grasping control at a frequency of 25 Hz. We propose a fully automated data collection pipeline and collect a dataset only using standardized blocks with different physical properties. However, our trained controller can generalize to daily objects with different sizes, shapes, materials, and textures. The experimental results demonstrate the effectiveness and robustness of the proposed approach. We compare LeTac-MPC with two purely model-based tactile-reactive controllers (MPC and PD) and open-loop grasping. Our results show that LeTac-MPC has optimal performance in dynamic and force-interactive tasks and optimal generalizability. We release our code and dataset at https://github.com/ZhengtongXu/LeTac-MPC.
- Abstract(参考訳): グラスピングはロボット工学において重要な課題であり、様々な条件下で物体をしっかりとつかむために触覚フィードバックと反応的な把握調整を必要とする。
本稿では,触覚反応性把握のための学習ベースモデル予測制御(MPC)LeTac-MPCを紹介する。
提案手法により,動的および力動的タスクにおいて,物体の物理的特性が異なる物体を把握できる。
我々は,物体の物理的特性や状態に関する情報を含む高分解能触覚フィードバックを知覚できる視覚ベースの触覚センサGelSightを利用する。
LeTac-MPCには、触覚フィードバックからニューラルネットワーク(NN)によって抽出された埋め込みをモデル化する、微分可能なMPC層が組み込まれている。
この設計は25Hzの周波数で収束性と頑健な把握制御を容易にする。
我々は、完全に自動化されたデータ収集パイプラインを提案し、物理特性の異なる標準化されたブロックのみを使用してデータセットを収集する。
しかし、我々の訓練されたコントローラーは、大きさ、形状、材料、テクスチャの異なる日々の物体に一般化することができる。
実験の結果,提案手法の有効性とロバスト性を示した。
我々はLeTac-MPCを2つの純粋モデルベースの触覚反応制御装置(MPCとPD)とオープンループグルーピングと比較した。
この結果から,LeTac-MPCは動的および力的相互作用タスクと最適一般化性において最適性能を有することがわかった。
コードとデータセットはhttps://github.com/ZhengtongXu/LeTac-MPCで公開しています。
関連論文リスト
- AdaptiGraph: Material-Adaptive Graph-Based Neural Dynamics for Robotic Manipulation [30.367498271886866]
本稿では,学習に基づく動的モデリング手法であるAdaptiGraphを紹介する。
ロボットは様々な難易度の高い変形可能な素材を予測し、適応し、制御することができる。
実世界の変形可能な物体の多種多様な集合を含む予測・操作タスクについて,予測精度とタスク習熟度に優れることを示す。
論文 参考訳(メタデータ) (2024-07-10T17:57:04Z) - RoboPack: Learning Tactile-Informed Dynamics Models for Dense Packing [38.97168020979433]
本稿では, 視覚と触覚を組み合わせ, 触覚インフォームド・ダイナミックスモデルを学習することでロボット操作を実現するアプローチを提案する。
提案するフレームワークであるRoboPackは、オブジェクト状態を推定するために、リカレントグラフニューラルネットワークを使用している。
我々は,非包括的操作と密包装作業に対するソフトバブル触覚センサを備えた実ロボットへのアプローチを実証する。
論文 参考訳(メタデータ) (2024-07-01T16:08:37Z) - MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - Neural Categorical Priors for Physics-Based Character Control [12.731392285646614]
運動の質と多様性を大幅に改善した物理に基づく文字制御のための新しい学習フレームワークを提案する。
提案手法は強化学習(RL)を用いて,非構造的なモーションクリップからのライフライクな動きを追跡し,模倣する。
本研究は,人型文字を用いた総合実験により,下流域の難易度の高い2つの課題,剣のシールドと2人のプレーヤーによるボクシングゲームについて検討する。
論文 参考訳(メタデータ) (2023-08-14T15:10:29Z) - Dynamic-Resolution Model Learning for Object Pile Manipulation [33.05246884209322]
本研究では,様々な抽象レベルで動的かつ適応的な表現を学習し,効率と効率の最適なトレードオフを実現する方法について検討する。
具体的には、環境の動的分解能粒子表現を構築し、グラフニューラルネットワーク(GNN)を用いた統一力学モデルを学ぶ。
本手法は, 粒状オブジェクトの収集, ソート, 再分配において, 最先端の固定解像度ベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2023-06-29T05:51:44Z) - Learning physics-informed simulation models for soft robotic
manipulation: A case study with dielectric elastomer actuators [21.349079159359746]
柔らかいアクチュエータは、緩やかな握りや器用な動きといったロボット作業に対して安全かつ適応的なアプローチを提供する。
このようなシステムを制御するための正確なモデルを作成することは、変形可能な物質の複雑な物理のために困難である。
本稿では,微分可能シミュレータと有限要素法の利点を組み合わせたフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-25T21:15:05Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z) - Goal-Conditioned End-to-End Visuomotor Control for Versatile Skill
Primitives [89.34229413345541]
本稿では,制御器とその条件をエンドツーエンドに学習することで,落とし穴を回避する条件付け手法を提案する。
本モデルでは,ロボットの動きのダイナミックな画像表現に基づいて,複雑な動作シーケンスを予測する。
代表的MPCおよびILベースラインに対するタスク成功の大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-03-19T15:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。