論文の概要: OmniTact: A Multi-Directional High Resolution Touch Sensor
- arxiv url: http://arxiv.org/abs/2003.06965v1
- Date: Mon, 16 Mar 2020 01:31:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 03:05:32.888954
- Title: OmniTact: A Multi-Directional High Resolution Touch Sensor
- Title(参考訳): OmniTact:多方向高解像度タッチセンサー
- Authors: Akhil Padmanabha, Frederik Ebert, Stephen Tian, Roberto Calandra,
Chelsea Finn, Sergey Levine
- Abstract要約: 既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
- 参考スコア(独自算出の注目度): 109.28703530853542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incorporating touch as a sensing modality for robots can enable finer and
more robust manipulation skills. Existing tactile sensors are either flat, have
small sensitive fields or only provide low-resolution signals. In this paper,
we introduce OmniTact, a multi-directional high-resolution tactile sensor.
OmniTact is designed to be used as a fingertip for robotic manipulation with
robotic hands, and uses multiple micro-cameras to detect multi-directional
deformations of a gel-based skin. This provides a rich signal from which a
variety of different contact state variables can be inferred using modern image
processing and computer vision methods. We evaluate the capabilities of
OmniTact on a challenging robotic control task that requires inserting an
electrical connector into an outlet, as well as a state estimation problem that
is representative of those typically encountered in dexterous robotic
manipulation, where the goal is to infer the angle of contact of a curved
finger pressing against an object. Both tasks are performed using only touch
sensing and deep convolutional neural networks to process images from the
sensor's cameras. We compare with a state-of-the-art tactile sensor that is
only sensitive on one side, as well as a state-of-the-art multi-directional
tactile sensor, and find that OmniTact's combination of high-resolution and
multi-directional sensing is crucial for reliably inserting the electrical
connector and allows for higher accuracy in the state estimation task. Videos
and supplementary material can be found at
https://sites.google.com/berkeley.edu/omnitact
- Abstract(参考訳): 触覚をロボットの知覚モダリティとして組み込むことで、よりきめ細やかで堅牢な操作技術を実現できる。
既存の触覚センサーは平坦で、感度が小さいか、低解像度の信号のみを提供する。
本稿では,多方向高解像度触覚センサOmniTactを紹介する。
OmniTactはロボットハンドで操作するための指先として使われ、複数のマイクロカメラを使ってゲルベースの皮膚の多方向変形を検出する。
これは、様々な異なる接触状態変数を現代の画像処理とコンピュータビジョン手法を用いて推論できるリッチな信号を提供する。
我々は,電気コネクタをコンセントに挿入する難易度の高いロボット制御作業において,OmniTactの能力を評価するとともに,物体に圧接する曲面指の接触角度を推定することを目的とした,器用なロボット操作で通常遭遇する人を代表する状態推定問題を評価する。
どちらのタスクも、タッチセンシングと深い畳み込みニューラルネットワークだけで、センサーのカメラから画像を処理します。
我々は,片面のみに敏感な最先端の触覚センサと最先端の多方向触覚センサを比較し,omnitactの高分解能・多方向センシングの組み合わせが電気コネクタを確実に挿入する上で重要であり,状態推定タスクにおいて高い精度を実現することを見出した。
ビデオと補足資料はhttps://sites.google.com/berkeley.edu/omnitactにある。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Binding Touch to Everything: Learning Unified Multimodal Tactile
Representations [29.76008953177392]
複数モードに接続された視覚ベースのタッチセンサの統一モデルであるUniTouchを紹介する。
我々は、すでに様々なモダリティに関連付けられている事前訓練済みのイメージ埋め込みに、UniTouchの埋め込みを合わせることで、これを実現する。
さらに、学習可能なセンサ固有のトークンを提案し、不均一な触覚センサの集合からモデルを学習できるようにする。
論文 参考訳(メタデータ) (2024-01-31T18:59:57Z) - Evetac: An Event-based Optical Tactile Sensor for Robotic Manipulation [20.713880984921385]
Evetacはイベントベースの光学触覚センサーである。
タッチ処理アルゴリズムを開発し,その測定結果を1000Hzでオンラインで処理する。
Evetacの出力とマーカー追跡は、データ駆動スリップの検出と予測モデルを学ぶ上で有意義な機能を提供する。
論文 参考訳(メタデータ) (2023-12-02T22:01:49Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - PyTouch: A Machine Learning Library for Touch Processing [68.32055581488557]
我々は、タッチセンシング信号の処理に特化した、最初の機械学習ライブラリであるPyTouchを紹介する。
PyTouchはモジュール式で使いやすく、最先端のタッチ処理機能をサービスとして提供するように設計されている。
タッチ検出,スリップ,オブジェクトポーズ推定などのタッチ処理タスクにおいて,触覚センサの実際のデータからPyTouchを評価する。
論文 参考訳(メタデータ) (2021-05-26T18:55:18Z) - DIGIT: A Novel Design for a Low-Cost Compact High-Resolution Tactile
Sensor with Application to In-Hand Manipulation [16.54834671357377]
汎用的な手動操作は、ロボティクスの未解決課題の1つとして残されている。
DIGITは安価でコンパクトで高解像度な触覚センサで、手作業で操作できる。
論文 参考訳(メタデータ) (2020-05-29T17:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。