論文の概要: Bayesian and Neural Inference on LSTM-based Object Recognition from
Tactile and Kinesthetic Information
- arxiv url: http://arxiv.org/abs/2306.06423v1
- Date: Sat, 10 Jun 2023 12:29:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 19:04:59.716172
- Title: Bayesian and Neural Inference on LSTM-based Object Recognition from
Tactile and Kinesthetic Information
- Title(参考訳): 触覚・審美情報からのLSTMに基づく物体認識におけるベイズとニューラル推論
- Authors: Francisco Pastor (1), Jorge Garc\'ia-Gonz\'alez (2), Juan M. Gandarias
(1), Daniel Medina (3), Pau Closas (4), Alfonso J. Garc\'ia-Cerezo (1),
Jes\'us M. G\'omez-de-Gabriel (1) ((1) Robotics and Mechatronics Group,
University of Malaga, Spain, (2) Department of Computer Languages and
Computer Science, University of Malaga, Spain, (3) Institute of
Communications and Navigation, German Aerospace Center (DLR), Germany, (4)
Department of Electrical and Computer Engineering, Northeastern University,
Boston, USA)
- Abstract要約: 触覚知覚は触覚(触覚や審美感覚など)に遭遇する感覚のモーダル性を含む
本論文は多モーダル物体認識に焦点をあて,触覚と審美に基づく分類結果を融合する解析的およびデータ駆動手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in the field of intelligent robotic manipulation pursue
providing robotic hands with touch sensitivity. Haptic perception encompasses
the sensing modalities encountered in the sense of touch (e.g., tactile and
kinesthetic sensations). This letter focuses on multimodal object recognition
and proposes analytical and data-driven methodologies to fuse tactile- and
kinesthetic-based classification results. The procedure is as follows: a
three-finger actuated gripper with an integrated high-resolution tactile sensor
performs squeeze-and-release Exploratory Procedures (EPs). The tactile images
and kinesthetic information acquired using angular sensors on the finger joints
constitute the time-series datasets of interest. Each temporal dataset is fed
to a Long Short-term Memory (LSTM) Neural Network, which is trained to classify
in-hand objects. The LSTMs provide an estimation of the posterior probability
of each object given the corresponding measurements, which after fusion allows
to estimate the object through Bayesian and Neural inference approaches. An
experiment with 36-classes is carried out to evaluate and compare the
performance of the fused, tactile, and kinesthetic perception systems.The
results show that the Bayesian-based classifiers improves capabilities for
object recognition and outperforms the Neural-based approach.
- Abstract(参考訳): インテリジェントロボットマニピュレーションの最近の進歩は、ロボットハンドにタッチ感度を提供する。
触覚知覚は、タッチの感覚(触覚や審美感覚など)に遭遇する感覚的様相を包含する。
このレターはマルチモーダルオブジェクト認識に焦点をあて、触覚と審美に基づく分類結果を融合する分析およびデータ駆動手法を提案する。
高分解能触覚センサを内蔵した3本指作動グリッパーは、eps(suse-and-release exploratory procedure)を実行する。
指関節の角センサを用いて取得した触覚画像と審美情報は、興味のある時系列データセットを構成する。
各テンポラリデータセットはlong short-term memory (lstm)ニューラルネットワークに供給され、手作業でオブジェクトを分類するように訓練される。
LSTMは、対応する測定値から各物体の後方確率を推定し、融合後はベイジアンおよびニューラル推論手法を用いて物体を推定することができる。
また,36種類のクラスを用いて,融合,触覚,審美の知覚システムの性能評価と比較を行った結果,ベイズ分類器は物体認識能力を改善し,ニューラルアプローチよりも優れた性能を示した。
関連論文リスト
- An Empirical Evaluation of Neural and Neuro-symbolic Approaches to
Real-time Multimodal Complex Event Detection [5.803352384948482]
従来のエンドツーエンドのニューラルネットワークは、コンテキストサイズや推論能力に制限があるため、長期にわたるイベントに苦労する。
人間の知識を活用するニューラルモデルとシンボリックモデルを統合するニューロシンボリック手法の最近の進歩は、少ないデータでパフォーマンスを向上させることを約束している。
本研究は,複合事象検出(CED)におけるこれらのアプローチの有効性のギャップを解消するものである。
マルチモーダルCEDタスクにおけるニューラル・ニューラル・シンボリック・アーキテクチャの性能について検討し,IMUおよび音響データストリームを分析してCEパターンを認識する。
論文 参考訳(メタデータ) (2024-02-17T23:34:50Z) - Data-Driven Goal Recognition in Transhumeral Prostheses Using Process
Mining Techniques [7.95507524742396]
アクティブな義肢は、リアルに評価された連続的なセンサーデータを使用して、患者の標的のポーズや目標を認識し、人工肢を積極的に移動させる。
これまでの研究では、静止ポーズで収集されたデータが、時間ステップを考慮せずに、目標の識別にどの程度役立つかが研究されてきた。
我々のアプローチは、データを離散的なイベントに変換し、既存のプロセスマイニングベースのゴール認識システムを訓練することである。
論文 参考訳(メタデータ) (2023-09-15T02:03:59Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Learning to Detect Slip through Tactile Estimation of the Contact Force Field and its Entropy [6.739132519488627]
本研究では,スリップ検出をリアルタイムで連続的に行う物理インフォームド・データ駆動方式を提案する。
我々は、光学式触覚センサーであるGelSight Miniを、カスタムデザインのグリップに装着して、触覚データを収集する。
その結果,最高の分類アルゴリズムは95.61%の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T03:16:21Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Object recognition for robotics from tactile time series data utilising
different neural network architectures [0.0]
本稿では,コンボリューショナルニューラルネットワーク(CNN)とLong-Short Term Memory(LSTM)ニューラルネットワークアーキテクチャを用いて,触覚データに基づくオブジェクト分類を行う。
我々は,2種類の指先センサ(BioTac SPとWTS-FT)のデータを用いて,これらの手法を比較した。
提案手法は,全時系列データを用いた最大精度を82.4% (BioTac SP fingertips) と90.7% (WTS-FT fingertips) から約94% に改善した。
論文 参考訳(メタデータ) (2021-09-09T22:05:45Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Gesture Recognition from Skeleton Data for Intuitive Human-Machine
Interaction [0.6875312133832077]
本稿では,手工芸品の集合に基づく動的ジェスチャーのセグメント化と分類のためのアプローチを提案する。
ジェスチャー認識方法はスライディングウィンドウを適用し、空間次元と時間次元の両方から情報を抽出する。
最終的に、認識されたジェスチャーは、協調ロボットと対話するために使用される。
論文 参考訳(メタデータ) (2020-08-26T11:28:50Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。