論文の概要: Extended Tactile Perception: Vibration Sensing through Tools and Grasped
Objects
- arxiv url: http://arxiv.org/abs/2106.00489v1
- Date: Tue, 1 Jun 2021 13:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:05:35.914073
- Title: Extended Tactile Perception: Vibration Sensing through Tools and Grasped
Objects
- Title(参考訳): 伸縮触覚: 工具とグラフト物体による振動センシング
- Authors: Tasbolat Taunyazov, Luar Shui Song, Eugene Lim, Hian Hian See, David
Lee, Benjamin C.K. Tee, Harold Soh
- Abstract要約: ロボットがツールを具現化し、標準的把握オブジェクトを使って知覚を拡張できることを示します。
ロボット指の動的触覚センサを用いた視覚触覚センシングと機械学習モデルにより,ロボットが接触情報を解読できることを提案する。
本稿では,BioTacマイクロ振動センサと4kHzでのマルチタキセルセンシングが可能な新しいイベントダイナミックセンサであるNUSkinを用いた広範囲な実験について報告する。
- 参考スコア(独自算出の注目度): 11.60680126397386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans display the remarkable ability to sense the world through tools and
other held objects. For example, we are able to pinpoint impact locations on a
held rod and tell apart different textures using a rigid probe. In this work,
we consider how we can enable robots to have a similar capacity, i.e., to
embody tools and extend perception using standard grasped objects. We propose
that vibro-tactile sensing using dynamic tactile sensors on the robot fingers,
along with machine learning models, enables robots to decipher contact
information that is transmitted as vibrations along rigid objects. This paper
reports on extensive experiments using the BioTac micro-vibration sensor and a
new event dynamic sensor, the NUSkin, capable of multi-taxel sensing at 4~kHz.
We demonstrate that fine localization on a held rod is possible using our
approach (with errors less than 1 cm on a 20 cm rod). Next, we show that
vibro-tactile perception can lead to reasonable grasp stability prediction
during object handover, and accurate food identification using a standard fork.
We find that multi-taxel vibro-tactile sensing at sufficiently high sampling
rate (above 2 kHz) led to the best performance across the various tasks and
objects. Taken together, our results provides both evidence and guidelines for
using vibro-tactile perception to extend tactile perception, which we believe
will lead to enhanced competency with tools and better physical
human-robot-interaction.
- Abstract(参考訳): 人間は道具やその他の保持物を通して世界を感知する驚くべき能力を示す。
例えば、保持された棒の衝突箇所をピンポイントで特定し、硬いプローブを使って異なるテクスチャを区別することができる。
本研究では,ロボットが道具を具現化し,標準的な把持物体を用いて知覚を拡張できるような能力を実現する方法について検討する。
ロボットの指の動的触覚センサを用いた視覚触覚センシングと機械学習モデルにより,ロボットは剛体物体に沿って伝達される振動として伝達される接触情報を解読できる。
本稿では,BioTacマイクロ振動センサと4〜kHzでマルチタキセルセンシングが可能な新しいイベントダイナミックセンサであるNUSkinを用いた広範囲な実験について報告する。
保持棒上の微細な局在化は我々のアプローチ(20cmロッド上の誤差が1cm未満)により可能であることを示す。
次に, 振動触覚知覚は, 物体ハンドオーバ時の適度な把握安定性予測と, 標準フォークを用いた正確な食品識別につながることを示す。
マルチタキセルビブロ触覚を十分に高いサンプリングレート(2kHz以上)で検出すると,様々なタスクやオブジェクトに対して最高の性能が得られることがわかった。
両者を組み合わせることで,触覚知覚の拡張にvibro-tactile perceptionを使用するためのエビデンスとガイドラインが提供され,ツールによる能力向上と,人間とロボットの対話性の向上につながると我々は信じている。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - A model-free approach to fingertip slip and disturbance detection for
grasp stability inference [0.0]
触覚センサを用いた握り安定性の評価手法を提案する。
我々は、アレグロハンドに搭載された高感度のウスキン触覚センサーを用いて、我々の手法を検証、検証した。
論文 参考訳(メタデータ) (2023-11-22T09:04:26Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Visual-Tactile Multimodality for Following Deformable Linear Objects
Using Reinforcement Learning [15.758583731036007]
本稿では,視覚と触覚入力を併用して変形可能な線形物体を追従するタスクを完遂する問題について検討する。
我々は,異なる感覚モーダルを用いた強化学習エージェントを作成し,その動作をどのように促進するかを検討する。
実験の結果,視覚入力と触覚入力の両方を使用することで,最大92%の症例で作業が完了することがわかった。
論文 参考訳(メタデータ) (2022-03-31T21:59:08Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Under Pressure: Learning to Detect Slip with Barometric Tactile Sensors [7.35805050004643]
本稿では,バロメトリック触覚センサを用いたスリップ検出法を提案する。
我々は91%以上のスリップ検出精度を達成することができる。
バロメトリック触覚センシング技術とデータ駆動学習の組み合わせは、多くの複雑な操作タスクに適しています。
論文 参考訳(メタデータ) (2021-03-24T19:29:03Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。