論文の概要: TacFinRay: Soft Tactile Fin-Ray Finger with Indirect Tactile Sensing for Robust Grasping
- arxiv url: http://arxiv.org/abs/2512.06524v1
- Date: Sat, 06 Dec 2025 18:24:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.172516
- Title: TacFinRay: Soft Tactile Fin-Ray Finger with Indirect Tactile Sensing for Robust Grasping
- Title(参考訳): TacFinRay:ロバストグラフト用間接触覚センサ付き軟触覚フィンガー
- Authors: Saekwang Nam, Bowen Deng, Loong Yi Lee, Jonathan M. Rossiter, Nathan F. Lepora,
- Abstract要約: 触覚センサを用いた指の接触位置とインデント深度を同時検出できる指について述べる。
軟フィン線構造体と剛性センシングモジュールとの間にヒンジ機構を一体化する。
内部カメラで捉えた変形パターンを畳み込みニューラルネットワークを用いて処理し、接触条件を推測する。
- 参考スコア(独自算出の注目度): 7.580154170757244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a tactile-sensorized Fin-Ray finger that enables simultaneous detection of contact location and indentation depth through an indirect sensing approach. A hinge mechanism is integrated between the soft Fin-Ray structure and a rigid sensing module, allowing deformation and translation information to be transferred to a bottom crossbeam upon which are an array of marker-tipped pins based on the biomimetic structure of the TacTip vision-based tactile sensor. Deformation patterns captured by an internal camera are processed using a convolutional neural network to infer contact conditions without directly sensing the finger surface. The finger design was optimized by varying pin configurations and hinge orientations, achieving 0.1\,mm depth and 2mm location-sensing accuracies. The perception demonstrated robust generalization to various indenter shapes and sizes, which was applied to a pick-and-place task under uncertain picking positions, where the tactile feedback significantly improved placement accuracy. Overall, this work provides a lightweight, flexible, and scalable tactile sensing solution suitable for soft robotic structures where the sensing needs situating away from the contact interface.
- Abstract(参考訳): 触覚センサを用いた指で接触位置と入射深度を同時検出する。
ヒンジ機構は軟Fin-Ray構造と剛性センシングモジュールとを一体化して、TacTip視覚ベースの触覚センサの生体模倣構造に基づいて、マーカー付きピンの配列である底面クロスビームに変形および翻訳情報を転送する。
内部カメラで捉えた変形パターンを畳み込みニューラルネットワークを用いて処理し、指表面を直接感知することなく接触条件を推測する。
指のデザインはピンの配置やヒンジの向きを変えて最適化され、深さ0.1\,mm、位置感知精度2mmを実現した。
その結果, 触覚フィードバックが位置決め精度を有意に向上させる不確実なピック・アンド・プレイス・タスクに応用した, 様々な室内形状や大きさに頑健な一般化が認められた。
全体として、この研究は軽量でフレキシブルでスケーラブルな触覚センシングソリューションを提供する。
関連論文リスト
- GelSphere: An Omnidirectional Rolling Vision-Based Tactile Sensor for Online 3D Reconstruction and Normal Force Estimation [2.803505954180182]
本稿では,球面型触覚センサであるGelSphereについて紹介する。
従来の視覚ベースの触覚センサーは、局所的にしか感知できず、表面を横切ると損傷を受けます。
センサーはWi-Fi経由で触覚画像をストリームする。
論文 参考訳(メタデータ) (2026-03-14T20:22:52Z) - A thin and soft optical tactile sensor for highly sensitive object perception [0.28528456544424774]
我々は、アライメントのない配置を特徴とする、薄く、コンパクトで、ソフトな光触覚センサを提案する。
このセンサは、軟質シリコン材料内で発生するスペックルパターンの変形誘起変化をキャプチャして動作させる。
実験の結果,9種類のテクスチャ面に対して40mNの根平均二乗誤差と93.33%の分類精度を示した。
論文 参考訳(メタデータ) (2026-02-03T08:28:14Z) - Multimodal Sensing for Robot-Assisted Sub-Tissue Feature Detection in Physiotherapy Palpation [6.494549465524354]
本稿では6軸力トルクセンサと高分解能視覚ベースの触覚画像を統合する小型マルチモーダルセンサを提案する。
予備的な結果は,触覚と力のモーダル性を組み合わせることで,ロバストな地下特徴の検出とロボットの触覚制御が可能になることを示唆している。
論文 参考訳(メタデータ) (2025-12-24T06:35:48Z) - OPENTOUCH: Bringing Full-Hand Touch to Real-World Interaction [93.88239833545623]
OpenTouchは、最初のインザワイルドなエゴセントリックなフルハンド触覚データセットです。
触覚信号は,理解のためのコンパクトで強力なキューを提供する。
我々は,マルチモーダルな自我中心の知覚,具体的学習,接触に富むロボット操作の促進を目指す。
論文 参考訳(メタデータ) (2025-12-18T18:18:17Z) - Fluidically Innervated Lattices Make Versatile and Durable Tactile Sensors [43.33741954317892]
組込み空気流路を有する3Dプリントエラストマー格子を用いて製造した触覚センサを内蔵した受動型ソフトロボット指先について述べる。
このセンサ化アプローチは、流体神経支配と呼ばれ、密閉された空気チャネル内の圧力変化を検出して格子を触覚センサーに変換する。
論文 参考訳(メタデータ) (2025-07-28T18:00:04Z) - GelSight Svelte: A Human Finger-shaped Single-camera Tactile Robot
Finger with Large Sensing Coverage and Proprioceptive Sensing [6.951068104196682]
GelSight Svelteは、曲がった人間の指の大きさの、シングルカメラの触覚センサーだ。
原受容情報は、GelSight Svelteの柔軟な背骨の変形として反映される。
得られた画像から屈曲トルクとねじりトルクを推定するために、畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2023-09-19T19:19:50Z) - A soft thumb-sized vision-based sensor with accurate all-round force
perception [19.905154050561013]
視覚ベースの触覚センサーは、安価な高解像度カメラとコンピュータビジョン技術の成功により、ロボットタッチへの有望なアプローチとして登場した。
我々はInsightという名前の、頑丈でソフトで低コストで、視覚ベースで親指サイズの3D触覚センサーを提示する。
論文 参考訳(メタデータ) (2021-11-10T20:46:23Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z) - The Feeling of Success: Does Touch Sensing Help Predict Grasp Outcomes? [57.366931129764815]
両指にGelSight高解像度触覚センサを装着した2本指グリップを用いて,9000以上の握力試験を行った。
実験結果から,触覚を取り入れることで把握性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2017-10-16T05:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。