論文の概要: FeelAnyForce: Estimating Contact Force Feedback from Tactile Sensation for Vision-Based Tactile Sensors
- arxiv url: http://arxiv.org/abs/2410.02048v1
- Date: Wed, 2 Oct 2024 21:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 09:15:24.944788
- Title: FeelAnyForce: Estimating Contact Force Feedback from Tactile Sensation for Vision-Based Tactile Sensors
- Title(参考訳): FeelAnyForce:視覚ベース触覚センサにおける触覚からの接触力フィードバックの推定
- Authors: Amir-Hossein Shahidzadeh, Gabriele Caddeo, Koushik Alapati, Lorenzo Natale, Cornelia Fermüller, Yiannis Aloimonos,
- Abstract要約: 視覚に基づく触覚センサを用いて3次元接触力を推定する問題に対処する。
我々のゴールは、様々な視覚ベースの触覚センサーにまたがって、あらゆる物体の接触力(最大15N)を推定することである。
- 参考スコア(独自算出の注目度): 18.88211706267447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we tackle the problem of estimating 3D contact forces using vision-based tactile sensors. In particular, our goal is to estimate contact forces over a large range (up to 15 N) on any objects while generalizing across different vision-based tactile sensors. Thus, we collected a dataset of over 200K indentations using a robotic arm that pressed various indenters onto a GelSight Mini sensor mounted on a force sensor and then used the data to train a multi-head transformer for force regression. Strong generalization is achieved via accurate data collection and multi-objective optimization that leverages depth contact images. Despite being trained only on primitive shapes and textures, the regressor achieves a mean absolute error of 4\% on a dataset of unseen real-world objects. We further evaluate our approach's generalization capability to other GelSight mini and DIGIT sensors, and propose a reproducible calibration procedure for adapting the pre-trained model to other vision-based sensors. Furthermore, the method was evaluated on real-world tasks, including weighing objects and controlling the deformation of delicate objects, which relies on accurate force feedback. Project webpage: http://prg.cs.umd.edu/FeelAnyForce
- Abstract(参考訳): 本稿では,視覚に基づく触覚センサを用いた3次元接触力推定問題に取り組む。
特に、我々のゴールは、様々な視覚ベースの触覚センサーにまたがって一般化しながら、あらゆる物体の広い範囲(最大15N)で接触力を推定することである。
そこで我々は,力センサに装着されたGelSight Miniセンサに各種のインデンタを押圧するロボットアームを用いて,200K以上のインデンテーションのデータセットを収集し,そのデータを用いて,力回帰のためのマルチヘッドトランスフォーマーのトレーニングを行った。
強い一般化は、深度接触画像を利用する正確なデータ収集と多目的最適化によって達成される。
原始的な形状やテクスチャのみに基づいてトレーニングされているにもかかわらず、回帰器は目に見えない現実世界のオブジェクトのデータセット上で平均4\%の絶対誤差を達成する。
我々は,他のGelSight miniおよびDIGITセンサーに対するアプローチの一般化能力をさらに評価し,事前学習されたモデルを他の視覚ベースセンサーに適用するための再現可能な校正手順を提案する。
さらに, 物体の重み付けや微妙な物体の変形の制御など実世界の課題に対して, 正確な力フィードバックに依存した評価を行った。
プロジェクトWebページ: http://prg.cs.umd.edu/FeelAnyForce
関連論文リスト
- Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Collision-aware In-hand 6D Object Pose Estimation using Multiple
Vision-based Tactile Sensors [4.886250215151643]
物体表面に沿ったセンサの空間的配置が考えられる理由を考察する。
選択したセンサー構成を用いて6Dポーズの空間を最適化する。
得られたポーズは、センサーと衝突しているポーズをペナルティ化することでランク付けする。
論文 参考訳(メタデータ) (2023-01-31T14:35:26Z) - Tac2Pose: Tactile Object Pose Estimation from the First Touch [6.321662423735226]
触覚ポーズ推定のためのオブジェクト固有のアプローチであるTac2Poseを提案する。
我々は、高密度な物体のポーズがセンサーに生み出す接触形状をシミュレートする。
我々は、RGBの触覚観測を2値の接触形状にマッピングする、物体に依存しないキャリブレーションステップでセンサから接触形状を得る。
論文 参考訳(メタデータ) (2022-04-25T14:43:48Z) - A soft thumb-sized vision-based sensor with accurate all-round force
perception [19.905154050561013]
視覚ベースの触覚センサーは、安価な高解像度カメラとコンピュータビジョン技術の成功により、ロボットタッチへの有望なアプローチとして登場した。
我々はInsightという名前の、頑丈でソフトで低コストで、視覚ベースで親指サイズの3D触覚センサーを提示する。
論文 参考訳(メタデータ) (2021-11-10T20:46:23Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。