論文の概要: TactileSGNet: A Spiking Graph Neural Network for Event-based Tactile
Object Recognition
- arxiv url: http://arxiv.org/abs/2008.08046v1
- Date: Sat, 1 Aug 2020 03:35:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:37:54.371721
- Title: TactileSGNet: A Spiking Graph Neural Network for Event-based Tactile
Object Recognition
- Title(参考訳): tactilesgnet: イベントベースの触覚物体認識のためのスパイクグラフニューラルネットワーク
- Authors: Fuqiang Gu, Weicong Sng, Tasbolat Taunyazov and Harold Soh
- Abstract要約: フレキシブルでイベント駆動の電子スキンの新しい進歩は、すぐに人間に似たタッチ認識能力を持つロボットを養うかもしれない。
これらのユニークな特徴は、触覚学習には適さない畳み込み特徴抽出器のような、現在のディープラーニングアプローチをもたらす可能性がある。
イベントベース触覚物体認識のための新しいスパイキンググラフニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 17.37142241982902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tactile perception is crucial for a variety of robot tasks including grasping
and in-hand manipulation. New advances in flexible, event-driven, electronic
skins may soon endow robots with touch perception capabilities similar to
humans. These electronic skins respond asynchronously to changes (e.g., in
pressure, temperature), and can be laid out irregularly on the robot's body or
end-effector. However, these unique features may render current deep learning
approaches such as convolutional feature extractors unsuitable for tactile
learning. In this paper, we propose a novel spiking graph neural network for
event-based tactile object recognition. To make use of local connectivity of
taxels, we present several methods for organizing the tactile data in a graph
structure. Based on the constructed graphs, we develop a spiking graph
convolutional network. The event-driven nature of spiking neural network makes
it arguably more suitable for processing the event-based data. Experimental
results on two tactile datasets show that the proposed method outperforms other
state-of-the-art spiking methods, achieving high accuracies of approximately
90\% when classifying a variety of different household objects.
- Abstract(参考訳): 触覚知覚は、把持や手操作を含む様々なロボットタスクに不可欠である。
フレキシブルでイベント駆動の電子皮膚の新しい進歩は、すぐに人間に似たタッチ認識能力を持つロボットに与えられるかもしれない。
これらの電子皮膚は変化(例えば圧力、温度)に非同期に反応し、ロボットの体やエンドエフェクターに不規則にレイアウトすることができる。
しかし、これらのユニークな特徴は、触覚学習には適さない畳み込み特徴抽出器のような現在のディープラーニングアプローチをもたらす可能性がある。
本稿では,イベントに基づく触覚物体認識のための新しいスパイキンググラフニューラルネットワークを提案する。
そこで本研究では,タクセルの局所接続性を活用するために,触覚データをグラフ構造に整理する手法を提案する。
構築したグラフに基づいて,スパイキンググラフ畳み込みネットワークを開発した。
スパイクニューラルネットワークのイベント駆動性は、イベントベースのデータを処理するのに間違いなく適している。
2つの触覚データセットによる実験結果から,提案手法は様々な家庭オブジェクトの分類において,約90%の精度で高い精度を達成できることがわかった。
関連論文リスト
- RoboPack: Learning Tactile-Informed Dynamics Models for Dense Packing [38.97168020979433]
本稿では, 視覚と触覚を組み合わせ, 触覚インフォームド・ダイナミックスモデルを学習することでロボット操作を実現するアプローチを提案する。
提案するフレームワークであるRoboPackは、オブジェクト状態を推定するために、リカレントグラフニューラルネットワークを使用している。
我々は,非包括的操作と密包装作業に対するソフトバブル触覚センサを備えた実ロボットへのアプローチを実証する。
論文 参考訳(メタデータ) (2024-07-01T16:08:37Z) - Physics-Encoded Graph Neural Networks for Deformation Prediction under
Contact [87.69278096528156]
ロボット工学では、触覚相互作用における物体の変形を理解することが不可欠である。
本稿では,物理符号化グラフニューラルネットワーク(GNN)を用いた予測手法を提案する。
コードとデータセットを公開して、ロボットシミュレーションと把握の研究を進めました。
論文 参考訳(メタデータ) (2024-02-05T19:21:52Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Graph Neural Networks with Trainable Adjacency Matrices for Fault
Diagnosis on Multivariate Sensor Data [69.25738064847175]
各センサの信号の挙動を別々に検討し,相互の相関関係と隠れ関係を考慮する必要がある。
グラフノードは、異なるセンサーからのデータとして表現することができ、エッジは、これらのデータの影響を互いに表示することができる。
グラフニューラルネットワークのトレーニング中にグラフを構築する方法が提案されている。これにより、センサー間の依存関係が事前に分かっていないデータ上でモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-10-20T11:03:21Z) - Tactile-ViewGCN: Learning Shape Descriptor from Tactile Data using Graph
Convolutional Network [0.4189643331553922]
触覚データを用いたオブジェクト分類に関するこれまでの研究を改善することに焦点を当てている。
本稿では,触覚的特徴を階層的に集約する新しい手法Tactile-ViewGCNを提案する。
提案手法は,STAGデータセットにおいて81.82%の精度で過去の手法より優れていた。
論文 参考訳(メタデータ) (2022-03-12T05:58:21Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - A Variational Graph Autoencoder for Manipulation Action Recognition and
Prediction [1.1816942730023883]
シンボルシーングラフから操作タスクの認識と予測を共同で学習するディープグラフオートエンコーダを提案する。
我々のネットワークは2つの分岐を持つ変分オートエンコーダ構造を持ち、1つは入力グラフタイプを識別し、もう1つは将来のグラフを予測する。
提案手法は,MANIACとMSRC-9の2つの異なるデータセット上で異なる最先端手法に対してベンチマークを行い,提案手法がより優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2021-10-25T21:40:42Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。