論文の概要: Tactile Gesture Recognition with Built-in Joint Sensors for Industrial Robots
- arxiv url: http://arxiv.org/abs/2508.12435v1
- Date: Sun, 17 Aug 2025 17:04:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.767288
- Title: Tactile Gesture Recognition with Built-in Joint Sensors for Industrial Robots
- Title(参考訳): 産業用ロボット用関節センサを用いた触覚認識
- Authors: Deqing Song, Weimin Yang, Maryam Rezayati, Hans Wernher van de Venn,
- Abstract要約: 本稿では,ロボットが内蔵するジョイントセンサにのみ依存する深層学習手法について検討し,外部センサの必要性を排除した。
我々は、様々な畳み込みニューラルネットワーク(CNN)アーキテクチャを評価し、2つのデータセットを収集し、データ表現とモデルアーキテクチャが認識精度に与える影響を調べた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While gesture recognition using vision or robot skins is an active research area in Human-Robot Collaboration (HRC), this paper explores deep learning methods relying solely on a robot's built-in joint sensors, eliminating the need for external sensors. We evaluated various convolutional neural network (CNN) architectures and collected two datasets to study the impact of data representation and model architecture on the recognition accuracy. Our results show that spectrogram-based representations significantly improve accuracy, while model architecture plays a smaller role. We also tested generalization to new robot poses, where spectrogram-based models performed better. Implemented on a Franka Emika Research robot, two of our methods, STFT2DCNN and STT3DCNN, achieved over 95% accuracy in contact detection and gesture classification. These findings demonstrate the feasibility of external-sensor-free tactile recognition and promote further research toward cost-effective, scalable solutions for HRC.
- Abstract(参考訳): 視覚やロボットの皮膚を用いたジェスチャー認識はヒューマン・ロボット・コラボレーション(HRC)において活発な研究領域であるが、本研究では、ロボットの関節センサーのみに依存したディープラーニング手法について検討し、外部センサの必要性を排除した。
我々は、様々な畳み込みニューラルネットワーク(CNN)アーキテクチャを評価し、2つのデータセットを収集し、データ表現とモデルアーキテクチャが認識精度に与える影響を調べた。
提案手法は,モデルアーキテクチャがより小さな役割を担っているのに対して,分光図に基づく表現は精度を著しく向上することを示す。
また,新しいロボットのポーズに対する一般化テストを行い,スペクトログラムに基づくモデルの性能が向上した。
また,Franka Emika Researchロボットに実装したSTFT2DCNNとSTT3DCNNは,接触検出とジェスチャー分類において95%以上の精度を実現した。
これらの結果は, 外部センサレス触覚認識の実現可能性を示し, HRCの費用対効果, スケーラブル化に向けたさらなる研究を推進している。
関連論文リスト
- What Matters for Active Texture Recognition With Vision-Based Tactile Sensors [17.019982978396122]
触覚ファブリック認識の文脈におけるアクティブサンプリング問題を定式化する。
迅速かつ信頼性の高いテクスチャ認識には,どのコンポーネントが不可欠かを検討する。
われわれのベストアプローチは5タッチ未満で90.0%に達し、視覚ベースの触覚センサが布のテクスチャ認識に極めて有効であることを強調した。
論文 参考訳(メタデータ) (2024-03-20T16:06:01Z) - Online Recognition of Incomplete Gesture Data to Interface Collaborative
Robots [0.0]
本稿では,ウェアラブルセンサで捉えた静的ジェスチャー(SG)と動的ジェスチャー(DG)の大きな語彙を分類するためのHRIフレームワークを提案する。
認識されたジェスチャーは、朝食の食事を準備する共同作業でロボットを遠隔操作するために使用される。
論文 参考訳(メタデータ) (2023-04-13T18:49:08Z) - Deep Transfer Learning with Graph Neural Network for Sensor-Based Human
Activity Recognition [12.51766929898714]
我々は,センサに基づくHARタスクに対して,グラフに着想を得たディープラーニングアプローチを考案した。
本稿では,センサベースHARタスクに対するグラフ畳み込みニューラルネットワーク(ResGCNN)の多層構造について述べる。
PAMAP2およびmHealthデータセットの実験結果から,我々のResGCNNは行動の特徴を捉えるのに有効であることが示された。
論文 参考訳(メタデータ) (2022-03-14T07:57:32Z) - Object recognition for robotics from tactile time series data utilising
different neural network architectures [0.0]
本稿では,コンボリューショナルニューラルネットワーク(CNN)とLong-Short Term Memory(LSTM)ニューラルネットワークアーキテクチャを用いて,触覚データに基づくオブジェクト分類を行う。
我々は,2種類の指先センサ(BioTac SPとWTS-FT)のデータを用いて,これらの手法を比較した。
提案手法は,全時系列データを用いた最大精度を82.4% (BioTac SP fingertips) と90.7% (WTS-FT fingertips) から約94% に改善した。
論文 参考訳(メタデータ) (2021-09-09T22:05:45Z) - Cross-Modal Analysis of Human Detection for Robotics: An Industrial Case
Study [7.844709223688293]
ロボット工学で典型的に使用されるセンサとアルゴリズムの組み合わせの系統的相互モーダル分析を行う。
2Dレンジデータ,3Dライダーデータ,RGB-Dデータに対する最先端人検知器の性能の比較を行った。
我々は、強力な画像ベースRGB-D検出器を拡張し、弱い3次元境界ボックスラベルの形でライダー検出器の相互監視を行う。
論文 参考訳(メタデータ) (2021-08-03T13:33:37Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Visionary: Vision architecture discovery for robot learning [58.67846907923373]
低次元動作入力と高次元視覚入力の相互作用を検出するロボット操作学習のための視覚に基づくアーキテクチャ探索アルゴリズムを提案する。
提案手法は,タスクのトレーニング中にアーキテクチャを自動設計する - イメージ特徴表現をアクションと組み合わせ,参加する新しい方法と,それ以前のレイヤの機能とを組み合わせて発見する。
論文 参考訳(メタデータ) (2021-03-26T17:51:43Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。