論文の概要: eFlesh: Highly customizable Magnetic Touch Sensing using Cut-Cell Microstructures
- arxiv url: http://arxiv.org/abs/2506.09994v1
- Date: Wed, 11 Jun 2025 17:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.195862
- Title: eFlesh: Highly customizable Magnetic Touch Sensing using Cut-Cell Microstructures
- Title(参考訳): eFlesh:カットセル微細構造を用いた高カスタマイズ可能な磁気タッチセンシング
- Authors: Venkatesh Pattabiraman, Zizhou Huang, Daniele Panozzo, Denis Zorin, Lerrel Pinto, Raunaq Bhirangi,
- Abstract要約: eFleshセンサーの構築には,3Dプリンタ,既製の磁石,希望形状のCADモデル,磁力計回路基板の4つのコンポーネントしか必要としない。
本研究では,コンベックスOBJ/STLファイルを3Dプリント可能なSTLに変換するオープンソース設計ツールを提案する。
センサキャラクタリゼーション実験により,eFleshは0.5mmの接触局在RMSE,通常の力は0.27N,せん断力は0.12Nの力予測RMSEの能力を示した。
- 参考スコア(独自算出の注目度): 35.94440287795584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: If human experience is any guide, operating effectively in unstructured environments -- like homes and offices -- requires robots to sense the forces during physical interaction. Yet, the lack of a versatile, accessible, and easily customizable tactile sensor has led to fragmented, sensor-specific solutions in robotic manipulation -- and in many cases, to force-unaware, sensorless approaches. With eFlesh, we bridge this gap by introducing a magnetic tactile sensor that is low-cost, easy to fabricate, and highly customizable. Building an eFlesh sensor requires only four components: a hobbyist 3D printer, off-the-shelf magnets (<$5), a CAD model of the desired shape, and a magnetometer circuit board. The sensor is constructed from tiled, parameterized microstructures, which allow for tuning the sensor's geometry and its mechanical response. We provide an open-source design tool that converts convex OBJ/STL files into 3D-printable STLs for fabrication. This modular design framework enables users to create application-specific sensors, and to adjust sensitivity depending on the task. Our sensor characterization experiments demonstrate the capabilities of eFlesh: contact localization RMSE of 0.5 mm, and force prediction RMSE of 0.27 N for normal force and 0.12 N for shear force. We also present a learned slip detection model that generalizes to unseen objects with 95% accuracy, and visuotactile control policies that improve manipulation performance by 40% over vision-only baselines -- achieving 91% average success rate for four precise tasks that require sub-mm accuracy for successful completion. All design files, code and the CAD-to-eFlesh STL conversion tool are open-sourced and available on https://e-flesh.com.
- Abstract(参考訳): 人間の体験がガイドなら、家やオフィスのような非構造環境で効果的に活動するには、物理的な相互作用の間、ロボットが力を感知する必要がある。
しかし、汎用的でアクセシブルでカスタマイズが容易な触覚センサーの欠如により、ロボット操作における断片化されたセンサー固有のソリューションが生まれ、多くの場合、無力でセンサーレスなアプローチに繋がった。
eFleshでは、低コストで製造が容易でカスタマイズ可能な磁気触覚センサーを導入して、このギャップを埋める。
eFleshセンサーを構築するには、ホビイストの3Dプリンター、市販の磁石(5ドル)、希望する形状のCADモデル、磁力計回路基板の4つのコンポーネントしか必要としない。
センサーはタイル状でパラメータ化されたマイクロ構造から構築され、センサーの形状と機械的応答を調整できる。
本研究では,コンベックスOBJ/STLファイルを3Dプリント可能なSTLに変換するオープンソース設計ツールを提案する。
このモジュラー設計フレームワークにより、アプリケーション固有のセンサーを作成し、タスクに応じて感度を調整することができる。
センサキャラクタリゼーション実験により,eFleshは0.5mmの接触局在RMSE,通常の力は0.27N,せん断力は0.12Nの力予測RMSEの能力を示した。
また、95%の精度で未確認オブジェクトを一般化する学習スリップ検出モデルと、視覚のみのベースラインよりも操作性能を40%向上するビズオタクタクタブル制御ポリシを提示する。
すべてのデザインファイル、コード、CAD-to-eFlesh STL変換ツールはオープンソースであり、https://e-flesh.comで入手できる。
関連論文リスト
- Sensor-Invariant Tactile Representation [11.153753622913843]
高解像度触覚センサーは、知覚の具体化やロボット操作に欠かせないものとなっている。
この分野における重要な課題は、設計と製造のバリエーションによるセンサー間の伝達性の欠如である。
本稿では,光触覚センサ間のゼロショット転送を可能にする,SITR(Sensor-Invariant Tactile Representations)の抽出手法を提案する。
論文 参考訳(メタデータ) (2025-02-27T00:12:50Z) - Fine Robotic Manipulation without Force/Torque Sensor [9.908082209033612]
典型的な6軸力/トルクセンサ(F/T)がロボットの手首と端エフェクターの間に装着され、環境がロボットに与える力(外部レンチ)を測定する。
典型的な6軸F/Tセンサーは高い精度で測定できるが、ドリフトや外部の衝撃に対して高価で脆弱である。
ロボットの内部信号のみを用いて外部レンチを推定する既存の手法は、スコープに限られている。
我々はニューラルネットワークに基づく手法を提案し、トレーニングデータ構造に特に注意を払うことで、正確に見積もることができると論じる。
論文 参考訳(メタデータ) (2023-01-31T05:06:04Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - A soft thumb-sized vision-based sensor with accurate all-round force
perception [19.905154050561013]
視覚ベースの触覚センサーは、安価な高解像度カメラとコンピュータビジョン技術の成功により、ロボットタッチへの有望なアプローチとして登場した。
我々はInsightという名前の、頑丈でソフトで低コストで、視覚ベースで親指サイズの3D触覚センサーを提示する。
論文 参考訳(メタデータ) (2021-11-10T20:46:23Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Real-time detection of uncalibrated sensors using Neural Networks [62.997667081978825]
オンライン学習に基づく温度・湿度・圧力センサの非校正検出装置を開発した。
このソリューションはニューラルネットワークをメインコンポーネントとして統合し、校正条件下でのセンサーの動作から学習する。
その結果, 提案手法は, 偏差値0.25度, 1% RH, 1.5Paの偏差をそれぞれ検出できることがわかった。
論文 参考訳(メタデータ) (2021-02-02T15:44:39Z) - DIGIT: A Novel Design for a Low-Cost Compact High-Resolution Tactile
Sensor with Application to In-Hand Manipulation [16.54834671357377]
汎用的な手動操作は、ロボティクスの未解決課題の1つとして残されている。
DIGITは安価でコンパクトで高解像度な触覚センサで、手作業で操作できる。
論文 参考訳(メタデータ) (2020-05-29T17:07:54Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。