論文の概要: Spatio-temporal Attention Model for Tactile Texture Recognition
- arxiv url: http://arxiv.org/abs/2008.04442v1
- Date: Mon, 10 Aug 2020 22:32:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 23:33:14.717108
- Title: Spatio-temporal Attention Model for Tactile Texture Recognition
- Title(参考訳): 触覚認識のための時空間アテンションモデル
- Authors: Guanqun Cao, Yi Zhou, Danushka Bollegala and Shan Luo
- Abstract要約: 触覚テクスチャ認識のための新しい時空間注意モデル(STAM)を提案する。
提案したSTAMは,それぞれの触覚テクスチャの空間的焦点と触覚シーケンスの時間的相関の両方に注意を払っている。
100種類の異なる布のテクスチャを識別する実験では,空間的,時間的に選択的な注意が認識精度を大幅に向上させた。
- 参考スコア(独自算出の注目度): 25.06942319117782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, tactile sensing has attracted great interest in robotics,
especially for facilitating exploration of unstructured environments and
effective manipulation. A detailed understanding of the surface textures via
tactile sensing is essential for many of these tasks. Previous works on texture
recognition using camera based tactile sensors have been limited to treating
all regions in one tactile image or all samples in one tactile sequence
equally, which includes much irrelevant or redundant information. In this
paper, we propose a novel Spatio-Temporal Attention Model (STAM) for tactile
texture recognition, which is the very first of its kind to our best knowledge.
The proposed STAM pays attention to both spatial focus of each single tactile
texture and the temporal correlation of a tactile sequence. In the experiments
to discriminate 100 different fabric textures, the spatially and temporally
selective attention has resulted in a significant improvement of the
recognition accuracy, by up to 18.8%, compared to the non-attention based
models. Specifically, after introducing noisy data that is collected before the
contact happens, our proposed STAM can learn the salient features efficiently
and the accuracy can increase by 15.23% on average compared with the CNN based
baseline approach. The improved tactile texture perception can be applied to
facilitate robot tasks like grasping and manipulation.
- Abstract(参考訳): 近年、触覚センシングは、特に非構造環境の探索と効果的な操作を促進するため、ロボット工学に大きな関心を集めている。
これらの課題の多くは触覚センシングによる表面テクスチャの詳細な理解が不可欠である。
これまで、カメラベースの触覚センサーを用いたテクスチャ認識の研究は、1つの触覚画像のすべての領域または1つの触覚シーケンスのすべてのサンプルを等しく扱うことに限られてきた。
本稿では,触覚テクスチャ認識のための新しい時空間注意モデル(STAM)を提案する。
提案するスタムは,各触覚テクスチャの空間的焦点と触覚シーケンスの時間的相関の両方に注意を払っている。
100種類の異なる織物テクスチャを識別する実験において、空間的および時間的に選択的に注意を向けることで、認識精度が最大18.8%向上した。
具体的には,接点発生前に収集したノイズデータの導入により,提案手法では有意な特徴を効率的に学習でき,cnn ベースラインアプローチと比較して平均で15.23%の精度向上が期待できる。
触覚感の改善は、把握や操作といったロボット作業を容易にするために応用できる。
関連論文リスト
- What Matters for Active Texture Recognition With Vision-Based Tactile Sensors [17.019982978396122]
触覚ファブリック認識の文脈におけるアクティブサンプリング問題を定式化する。
迅速かつ信頼性の高いテクスチャ認識には,どのコンポーネントが不可欠かを検討する。
われわれのベストアプローチは5タッチ未満で90.0%に達し、視覚ベースの触覚センサが布のテクスチャ認識に極めて有効であることを強調した。
論文 参考訳(メタデータ) (2024-03-20T16:06:01Z) - Keypoint Description by Symmetry Assessment -- Applications in
Biometrics [49.547569925407814]
有限展開によりキーポイント周辺の近傍を記述するモデルに基づく特徴抽出器を提案する。
そのような関数の等曲線は、原点(キーポイント)と推定されたパラメータがよく定義された幾何学的解釈を持つように、高度に対称な w.r.t である。
論文 参考訳(メタデータ) (2023-11-03T00:49:25Z) - Attention for Robot Touch: Tactile Saliency Prediction for Robust
Sim-to-Real Tactile Control [12.302685367517718]
高解像度触覚センサーは、接触に富むロボットタスクにおける局所的な接触に関する情報を正確に提供することができる。
我々は,神経科学の人間のタッチアテンション機構にヒントを得た,ロボットタッチのためのテクスティタクティル・サリエンシ(textittactile saliency)という新しい概念を研究した。
論文 参考訳(メタデータ) (2023-07-26T21:19:45Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - VisTaNet: Attention Guided Deep Fusion for Surface Roughness
Classification [0.0]
本稿では,既存の触覚データセットを付加した視覚データセットを提案する。
4種類の融合戦略を用いて視覚・触覚データを融合する新しい深層融合アーキテクチャを提案する。
本モデルでは触覚のみに比べて表面粗さ分類精度が97.22%向上した。
論文 参考訳(メタデータ) (2022-09-18T09:37:06Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - TactileSGNet: A Spiking Graph Neural Network for Event-based Tactile
Object Recognition [17.37142241982902]
フレキシブルでイベント駆動の電子スキンの新しい進歩は、すぐに人間に似たタッチ認識能力を持つロボットを養うかもしれない。
これらのユニークな特徴は、触覚学習には適さない畳み込み特徴抽出器のような、現在のディープラーニングアプローチをもたらす可能性がある。
イベントベース触覚物体認識のための新しいスパイキンググラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-01T03:35:15Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。