論文の概要: GelSight Svelte: A Human Finger-shaped Single-camera Tactile Robot
Finger with Large Sensing Coverage and Proprioceptive Sensing
- arxiv url: http://arxiv.org/abs/2309.10885v1
- Date: Tue, 19 Sep 2023 19:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 18:04:38.131103
- Title: GelSight Svelte: A Human Finger-shaped Single-camera Tactile Robot
Finger with Large Sensing Coverage and Proprioceptive Sensing
- Title(参考訳): GelSight Svelte:人間の指の形をした単一カメラの触覚ロボット
- Authors: Jialiang Zhao and Edward H. Adelson
- Abstract要約: GelSight Svelteは、曲がった人間の指の大きさの、シングルカメラの触覚センサーだ。
原受容情報は、GelSight Svelteの柔軟な背骨の変形として反映される。
得られた画像から屈曲トルクとねじりトルクを推定するために、畳み込みニューラルネットワークを訓練する。
- 参考スコア(独自算出の注目度): 6.951068104196682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera-based tactile sensing is a low-cost, popular approach to obtain highly
detailed contact geometry information. However, most existing camera-based
tactile sensors are fingertip sensors, and longer fingers often require
extraneous elements to obtain an extended sensing area similar to the full
length of a human finger. Moreover, existing methods to estimate proprioceptive
information such as total forces and torques applied on the finger from
camera-based tactile sensors are not effective when the contact geometry is
complex. We introduce GelSight Svelte, a curved, human finger-sized,
single-camera tactile sensor that is capable of both tactile and proprioceptive
sensing over a large area. GelSight Svelte uses curved mirrors to achieve the
desired shape and sensing coverage. Proprioceptive information, such as the
total bending and twisting torques applied on the finger, is reflected as
deformations on the flexible backbone of GelSight Svelte, which are also
captured by the camera. We train a convolutional neural network to estimate the
bending and twisting torques from the captured images. We conduct gel
deformation experiments at various locations of the finger to evaluate the
tactile sensing capability and proprioceptive sensing accuracy. To demonstrate
the capability and potential uses of GelSight Svelte, we conduct an object
holding task with three different grasping modes that utilize different areas
of the finger. More information is available on our website:
https://gelsight-svelte.alanz.info
- Abstract(参考訳): カメラベースの触覚センシングは、高度に詳細な接触形状情報を得るための低コストで一般的なアプローチである。
しかし、既存のカメラベースの触覚センサーのほとんどは指先センサーであり、長い指は人間の指の長さに類似した広義のセンシング領域を得るためには、しばしば余分な要素を必要とする。
また, 接触形状が複雑である場合には, カメラによる触覚センサから指に作用する総力やトルクなどの受容情報を推定する方法は有効ではない。
gelsight svelteは、人間の指の大きさ、単眼触覚センサーで、広い範囲にわたって触覚と固有感覚の両方を感知できる。
GelSight Svelteは、望まれる形状と感知範囲を達成するために曲面ミラーを使用する。
カメラが捉えたGelSight Svelteのフレキシブルバックボーンの変形として、指に適用される全屈曲トルクやねじりトルクなどの受動的情報を反映する。
畳み込みニューラルネットワークを訓練し、撮影した画像から曲げトルクとねじりトルクを推定する。
指の様々な部位でゲル変形実験を行い,触感能力と固有感覚の精度を評価した。
指の異なる領域を利用する3つの異なる把持モードを持つ物体保持タスクを,gelsight svelteの能力と可能性を示す。
詳細は私たちのWebサイトにある。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - A soft thumb-sized vision-based sensor with accurate all-round force
perception [19.905154050561013]
視覚ベースの触覚センサーは、安価な高解像度カメラとコンピュータビジョン技術の成功により、ロボットタッチへの有望なアプローチとして登場した。
我々はInsightという名前の、頑丈でソフトで低コストで、視覚ベースで親指サイズの3D触覚センサーを提示する。
論文 参考訳(メタデータ) (2021-11-10T20:46:23Z) - Tactile Image-to-Image Disentanglement of Contact Geometry from
Motion-Induced Shear [30.404840177562754]
ロボットタッチは、特にソフトな光触覚センサーを使用する場合、動きに依存したせん断によって引き起こされる歪みに悩まされる。
本稿では,スライディングによるせん断による接触形状によるセンサ変形の成分である潜伏空間において,絡み合うことを学習する教師付き畳み込みディープニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2021-09-08T13:03:08Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Extended Tactile Perception: Vibration Sensing through Tools and Grasped
Objects [11.60680126397386]
ロボットがツールを具現化し、標準的把握オブジェクトを使って知覚を拡張できることを示します。
ロボット指の動的触覚センサを用いた視覚触覚センシングと機械学習モデルにより,ロボットが接触情報を解読できることを提案する。
本稿では,BioTacマイクロ振動センサと4kHzでのマルチタキセルセンシングが可能な新しいイベントダイナミックセンサであるNUSkinを用いた広範囲な実験について報告する。
論文 参考訳(メタデータ) (2021-06-01T13:49:31Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。