論文の概要: Leveraging distributed contact force measurements for slip detection: a
physics-based approach enabled by a data-driven tactile sensor
- arxiv url: http://arxiv.org/abs/2109.11504v1
- Date: Thu, 23 Sep 2021 17:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 14:52:32.966223
- Title: Leveraging distributed contact force measurements for slip detection: a
physics-based approach enabled by a data-driven tactile sensor
- Title(参考訳): すべり検出のための分散接触力測定の活用--データ駆動触覚センサによる物理的アプローチ
- Authors: Pietro Griffa, Carmelo Sferrazza, Raffaello D'Andrea
- Abstract要約: 本稿では,新たなモデルに基づくスリップ検出パイプラインについて述べる。
分散力を正確に推定する視覚ベースの触覚センサを、6自由度コボットと2フィンガーグリップパーからなる把握装置に統合した。
その結果, 形状, 材料, 重量の異なる物体を操作しながら, スリップを確実に予測できることがわかった。
- 参考スコア(独自算出の注目度): 5.027571997864706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasping objects whose physical properties are unknown is still a great
challenge in robotics. Most solutions rely entirely on visual data to plan the
best grasping strategy. However, to match human abilities and be able to
reliably pick and hold unknown objects, the integration of an artificial sense
of touch in robotic systems is pivotal. This paper describes a novel
model-based slip detection pipeline that can predict possibly failing grasps in
real-time and signal a necessary increase in grip force. As such, the slip
detector does not rely on manually collected data, but exploits physics to
generalize across different tasks. To evaluate the approach, a state-of-the-art
vision-based tactile sensor that accurately estimates distributed forces was
integrated into a grasping setup composed of a six degrees-of-freedom cobot and
a two-finger gripper. Results show that the system can reliably predict slip
while manipulating objects of different shapes, materials, and weights. The
sensor can detect both translational and rotational slip in various scenarios,
making it suitable to improve the stability of a grasp.
- Abstract(参考訳): 物理的性質が不明なオブジェクトをグラッピングすることは、ロボティクスにおいて依然として大きな課題である。
ほとんどのソリューションは、最善の把握戦略を計画するために、視覚データに完全に依存しています。
しかし、人間の能力と一致し、未知の物体を確実に選択し保持できるためには、ロボットシステムにおける人工的なタッチ感覚の統合が重要である。
本稿では, 実時間での把持不良を予測し, 把持力の増加を知らせる新しいモデルベーススリップ検出パイプラインについて述べる。
そのため、スリップ検出器は手動で収集したデータに頼るのではなく、物理を利用して様々なタスクを一般化する。
このアプローチを評価するため,6自由度コボットと2フィンガーグリップパーからなる把握装置に,分散力を正確に推定する最先端の視覚ベース触覚センサを組み込んだ。
その結果, 形状, 材料, 重量の異なる物体を操作しながら, スリップを確実に予測できることがわかった。
センサは様々なシナリオで翻訳スリップと回転スリップの両方を検出することができ、把持の安定性を向上させるのに適している。
関連論文リスト
- OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - A model-free approach to fingertip slip and disturbance detection for
grasp stability inference [0.0]
触覚センサを用いた握り安定性の評価手法を提案する。
我々は、アレグロハンドに搭載された高感度のウスキン触覚センサーを用いて、我々の手法を検証、検証した。
論文 参考訳(メタデータ) (2023-11-22T09:04:26Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Learning to Detect Slip through Tactile Estimation of the Contact Force Field and its Entropy [6.739132519488627]
本研究では,スリップ検出をリアルタイムで連続的に行う物理インフォームド・データ駆動方式を提案する。
我々は、光学式触覚センサーであるGelSight Miniを、カスタムデザインのグリップに装着して、触覚データを収集する。
その結果,最高の分類アルゴリズムは95.61%の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T03:16:21Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Under Pressure: Learning to Detect Slip with Barometric Tactile Sensors [7.35805050004643]
本稿では,バロメトリック触覚センサを用いたスリップ検出法を提案する。
我々は91%以上のスリップ検出精度を達成することができる。
バロメトリック触覚センシング技術とデータ駆動学習の組み合わせは、多くの複雑な操作タスクに適しています。
論文 参考訳(メタデータ) (2021-03-24T19:29:03Z) - Zero-shot sim-to-real transfer of tactile control policies for
aggressive swing-up manipulation [5.027571997864706]
本稿では,視覚ベースの触覚センサを備えたロボットが,操作対象の物理的属性を事前に知ることなく動的操作を行うことができることを示す。
異なる質量、半径、長さの極を180度の角度に振り上げることができるロボットシステムが提示されています。
これは、高次元触覚観測からのフィードバックポリシーを用いて閉ループにおける極の揺らぎ操作を制御する最初の方法である。
論文 参考訳(メタデータ) (2021-01-07T18:43:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。