論文の概要: Digitizing Touch with an Artificial Multimodal Fingertip
- arxiv url: http://arxiv.org/abs/2411.02479v1
- Date: Mon, 04 Nov 2024 18:38:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 15:00:34.185164
- Title: Digitizing Touch with an Artificial Multimodal Fingertip
- Title(参考訳): 人工マルチモーダルフィンガープによるディジタイズタッチ
- Authors: Mike Lambeta, Tingfan Wu, Ali Sengul, Victoria Rose Most, Nolan Black, Kevin Sawyer, Romeo Mercado, Haozhi Qi, Alexander Sohn, Byron Taylor, Norb Tydingco, Gregg Kammerer, Dave Stroud, Jake Khatha, Kurt Jenkins, Kyle Most, Neal Stein, Ricardo Chavira, Thomas Craven-Bartle, Eric Sanchez, Yitian Ding, Jitendra Malik, Roberto Calandra,
- Abstract要約: 人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
- 参考スコア(独自算出の注目度): 51.7029315337739
- License:
- Abstract: Touch is a crucial sensing modality that provides rich information about object properties and interactions with the physical environment. Humans and robots both benefit from using touch to perceive and interact with the surrounding environment (Johansson and Flanagan, 2009; Li et al., 2020; Calandra et al., 2017). However, no existing systems provide rich, multi-modal digital touch-sensing capabilities through a hemispherical compliant embodiment. Here, we describe several conceptual and technological innovations to improve the digitization of touch. These advances are embodied in an artificial finger-shaped sensor with advanced sensing capabilities. Significantly, this fingertip contains high-resolution sensors (~8.3 million taxels) that respond to omnidirectional touch, capture multi-modal signals, and use on-device artificial intelligence to process the data in real time. Evaluations show that the artificial fingertip can resolve spatial features as small as 7 um, sense normal and shear forces with a resolution of 1.01 mN and 1.27 mN, respectively, perceive vibrations up to 10 kHz, sense heat, and even sense odor. Furthermore, it embeds an on-device AI neural network accelerator that acts as a peripheral nervous system on a robot and mimics the reflex arc found in humans. These results demonstrate the possibility of digitizing touch with superhuman performance. The implications are profound, and we anticipate potential applications in robotics (industrial, medical, agricultural, and consumer-level), virtual reality and telepresence, prosthetics, and e-commerce. Toward digitizing touch at scale, we open-source a modular platform to facilitate future research on the nature of touch.
- Abstract(参考訳): タッチは、物体の性質や物理的環境との相互作用に関する豊富な情報を提供する、重要な知覚モダリティである。
人間とロボットは、タッチを使って周囲の環境を知覚し、相互作用する(Johansson and Flanagan, 2009; Li et al , 2020; Calandra et al , 2017)。
しかし、既存のシステムでは、半球準拠のエンボディメントを通じてリッチでマルチモーダルなデジタルタッチセンシング機能を提供していない。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
重要なことに、この指先は全方位タッチに反応し、マルチモーダル信号をキャプチャし、デバイス上の人工知能を使ってデータをリアルタイムで処理する高解像度センサー(約830万タッテル)を含んでいる。
評価の結果、人工指先は空間的特徴を7m程度小さく、通常力とせん断力はそれぞれ1.01mNと1.27mNと、最大10kHzの振動を知覚し、熱を感知し、さらには匂いを感知できることがわかった。
さらに、ロボットに周辺神経系として機能し、人間の反射弧を模倣するデバイス上のAIニューラルネットワークアクセラレーターも組み込まれている。
これらの結果は,超人的操作によるタッチのデジタル化の可能性を示している。
この意味は深く、ロボット工学(産業、医療、農業、消費者レベル)、仮想現実、テレプレゼンス、義肢、および電子商取引の潜在的な応用を予想している。
タッチのデジタル化に向けて,私たちは,タッチの性質に関する今後の研究を促進するために,モジュール化されたプラットフォームをオープンソースとして公開しています。
関連論文リスト
- DexTouch: Learning to Seek and Manipulate Objects with Tactile Dexterity [12.508332341279177]
触覚を用いて物体を探索・操作する多指ロボットシステムを提案する。
これを実現するために、ロボットハンドの片側に二元触覚センサを実装し、Sim2Realギャップを最小限に抑える。
視覚情報のない環境においても,触覚センサを用いた物体探索と操作が可能であることを示す。
論文 参考訳(メタデータ) (2024-01-23T05:37:32Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Robot Synesthesia: In-Hand Manipulation with Visuotactile Sensing [15.970078821894758]
視覚的・触覚的な感覚入力を活用して手動操作を可能にするシステムを提案する。
ロボット・シンセシス(Robot Synesthesia)は、人間の触覚と視覚の合成にインスパイアされた、新しい点の雲に基づく触覚表現である。
論文 参考訳(メタデータ) (2023-12-04T12:35:43Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - A toolbox for neuromorphic sensing in robotics [4.157415305926584]
ロボット上で利用可能なあらゆる種類のセンサからの入力信号をエンコードし、デコードするためのROS(Robot Operating System)ツールボックスを導入する。
このイニシアチブは、ニューロモルフィックAIのロボット統合を刺激し促進することを目的としている。
論文 参考訳(メタデータ) (2021-03-03T23:22:05Z) - DIGIT: A Novel Design for a Low-Cost Compact High-Resolution Tactile
Sensor with Application to In-Hand Manipulation [16.54834671357377]
汎用的な手動操作は、ロボティクスの未解決課題の1つとして残されている。
DIGITは安価でコンパクトで高解像度な触覚センサで、手作業で操作できる。
論文 参考訳(メタデータ) (2020-05-29T17:07:54Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。