論文の概要: A High-Force Gripper with Embedded Multimodal Sensing for Powerful and Perception Driven Grasping
- arxiv url: http://arxiv.org/abs/2504.04970v1
- Date: Mon, 07 Apr 2025 11:57:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:09:59.344990
- Title: A High-Force Gripper with Embedded Multimodal Sensing for Powerful and Perception Driven Grasping
- Title(参考訳): マルチモーダルセンシングを組み込んだ高力グリップによる高知覚・高感度グレーピング
- Authors: Edoardo Del Bianco, Davide Torielli, Federico Rollo, Damiano Gasperini, Arturo Laurenzi, Lorenzo Baccelliere, Luca Muratore, Marco Roveri, Nikos G. Tsagarakis,
- Abstract要約: 組込みマルチモーダル知覚機能を備えたモジュラー高把持力グリップを開発した。
提案したグリップは、コンパクトな実装で110Nの把持力を生成することができる。
高把握力は、アイインハンドカメラ、タイム・オブ・ライト(ToF)距離センサー、慣性計測ユニット(IMU)、全方位マイクを含む組込みマルチモーダルセンシングと組み合わせられる。
- 参考スコア(独自算出の注目度): 12.351326520775464
- License:
- Abstract: Modern humanoid robots have shown their promising potential for executing various tasks involving the grasping and manipulation of objects using their end-effectors. Nevertheless, in the most of the cases, the grasping and manipulation actions involve low to moderate payload and interaction forces. This is due to limitations often presented by the end-effectors, which can not match their arm-reachable payload, and hence limit the payload that can be grasped and manipulated. In addition, grippers usually do not embed adequate perception in their hardware, and grasping actions are mainly driven by perception sensors installed in the rest of the robot body, frequently affected by occlusions due to the arm motions during the execution of the grasping and manipulation tasks. To address the above, we developed a modular high grasping force gripper equipped with embedded multi-modal perception functionalities. The proposed gripper can generate a grasping force of 110 N in a compact implementation. The high grasping force capability is combined with embedded multi-modal sensing, which includes an eye-in-hand camera, a Time-of-Flight (ToF) distance sensor, an Inertial Measurement Unit (IMU) and an omnidirectional microphone, permitting the implementation of perception-driven grasping functionalities. We extensively evaluated the grasping force capacity of the gripper by introducing novel payload evaluation metrics that are a function of the robot arm's dynamic motion and gripper thermal states. We also evaluated the embedded multi-modal sensing by performing perception-guided enhanced grasping operations.
- Abstract(参考訳): 現代のヒューマノイドロボットは、エンドエフェクターを用いた物体の把握と操作を含む様々なタスクを実行するための有望な可能性を示してきた。
それにもかかわらず、ほとんどの場合、把握と操作のアクションは、低から中程度のペイロードと相互作用力を含む。
これは、しばしばエンドエフェクターによって提示される制限のためであり、これは腕に到達可能なペイロードと一致せず、従ってつかみ、操作できるペイロードを制限する。
加えて、握手は通常、ハードウェアに適切な知覚を組み込まないため、握り動作は、ロボット本体の他の部分に設置された知覚センサによって主に駆動され、握り操作タスクの実行時の腕の動きによる閉塞によって頻繁に影響を受ける。
そこで我々は,マルチモーダル認識機能を組み込んだモジュール式高把持力グリップを開発した。
提案したグリップは、コンパクトな実装で110Nの把持力を生成することができる。
高把持力は、アイインハンドカメラ、タイム・オブ・ライト(ToF)距離センサ、慣性測定ユニット(IMU)および全方位マイクを含む組込みマルチモーダルセンシングと組み合わせられ、知覚駆動型把握機能の実装が可能である。
ロボットアームの動的運動とグリップ熱状態の関数である新たなペイロード評価指標を導入することにより、グリップの把持力容量を広範囲に評価した。
また,知覚誘導型強化把握操作により,組込みマルチモーダルセンシングの評価を行った。
関連論文リスト
- Capturing complex hand movements and object interactions using machine learning-powered stretchable smart textile gloves [9.838013581109681]
手の動きをリアルタイムに追跡することは、人間とコンピュータの相互作用、メタバース、ロボット工学、遠隔医療に多くの応用がある。
そこで本研究では, 伸縮性, 洗浄性を有するスマートグローブ, ヘリカルセンサ糸, 慣性測定ユニットを用いた手指運動の高精度かつダイナミックな追跡を報告する。
センサ糸は高いダイナミックレンジを有し, 0.005 %の低い155 %のひずみに応答し, 広範囲の使用および洗浄サイクルの安定性を示す。
論文 参考訳(メタデータ) (2024-10-03T05:32:16Z) - InsActor: Instruction-driven Physics-based Characters [65.4702927454252]
本稿では,物理系文字の命令駆動型アニメーションを生成する,原理的生成フレームワークを提案する。
我々のフレームワークは、InsActorに高レベルな人間の指示とキャラクターの動きの間の複雑な関係をキャプチャする権限を与える。
InsActorは、命令駆動のモーション生成や命令駆動のウェイポイント誘導など、様々なタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-28T17:10:31Z) - Kinematically-Decoupled Impedance Control for Fast Object Visual
Servoing and Grasping on Quadruped Manipulators [18.279073092727025]
本稿では,分離アームキネマティックチェーンとインピーダンス制御に基づいて,オブジェクトのSAG(Searching, Approaching, Grasping)の制御パイプラインを提案する。
キネマティックデカップリングは、高速なエンドエフェクター運動と回復を可能にし、堅牢な視覚サーボに繋がる。
7-DoFマニピュレータアームを搭載した140kgのHyQReal四足歩行ロボットにおいて,提案手法の性能とロバスト性を実証した。
論文 参考訳(メタデータ) (2023-07-10T21:51:06Z) - UltraGlove: Hand Pose Estimation with Mems-Ultrasonic Sensors [14.257535961674021]
指に装着した複数のMEMS超音波センサを用いた手指追跡グローブを提案する。
実験の結果,本手法は精度,サイズに依存し,外的干渉に対して頑健であることがわかった。
論文 参考訳(メタデータ) (2023-06-22T03:41:47Z) - Fine Robotic Manipulation without Force/Torque Sensor [9.908082209033612]
典型的な6軸力/トルクセンサ(F/T)がロボットの手首と端エフェクターの間に装着され、環境がロボットに与える力(外部レンチ)を測定する。
典型的な6軸F/Tセンサーは高い精度で測定できるが、ドリフトや外部の衝撃に対して高価で脆弱である。
ロボットの内部信号のみを用いて外部レンチを推定する既存の手法は、スコープに限られている。
我々はニューラルネットワークに基づく手法を提案し、トレーニングデータ構造に特に注意を払うことで、正確に見積もることができると論じる。
論文 参考訳(メタデータ) (2023-01-31T05:06:04Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Towards Safe Control of Continuum Manipulator Using Shielded Multiagent
Reinforcement Learning [1.2647816797166165]
ロボットの制御は、MADQNフレームワークにおける1つのエージェント問題である1-DoFとして定式化され、学習効率が向上する。
シールドされたMADQNにより、ロボットは外部負荷下で、サブミリ単位のルート平均二乗誤差で点と軌道追跡を行うことができた。
論文 参考訳(メタデータ) (2021-06-15T05:55:05Z) - Continuous Decoding of Daily-Life Hand Movements from Forearm Muscle
Activity for Enhanced Myoelectric Control of Hand Prostheses [78.120734120667]
本研究では,前腕のEMG活性をハンドキネマティクスに連続的にマップする,長期記憶(LSTM)ネットワークに基づく新しい手法を提案する。
私たちの研究は、この困難なデータセットを使用するハンドキネマティクスの予測に関する最初の報告です。
提案手法は, 人工手指の複数のDOFの独立的, 比例的アクティベーションのための制御信号の生成に適していることが示唆された。
論文 参考訳(メタデータ) (2021-04-29T00:11:32Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。