論文の概要: A Distributed Multi-Modal Sensing Approach for Human Activity Recognition in Real-Time Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2602.07024v1
- Date: Mon, 02 Feb 2026 10:14:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.370222
- Title: A Distributed Multi-Modal Sensing Approach for Human Activity Recognition in Real-Time Human-Robot Collaboration
- Title(参考訳): リアルタイム人間-ロボット協調における人活動認識のための分散マルチモーダルセンシング手法
- Authors: Valerio Belcamino, Nhat Minh Dinh Le, Quan Khanh Luu, Alessandro Carfì, Van Anh Ho, Fulvio Mastrogiovanni,
- Abstract要約: 本稿では,慣性計測ユニットを備えたモジュール型データグローブと,ロボットとの接触時の手の動きを捉える視覚ベースの触覚センサを組み合わせたHARシステムを提案する。
我々は,セグメント化シーケンスのオフライン分類,静的条件下でのリアルタイム分類,現実的なHRCシナリオなど,さまざまな条件下で活動認識アプローチを検証した。
実験の結果、全てのタスクに対して高い精度が示され、複数の協調的な設定がこのマルチモーダルアプローチの恩恵を受ける可能性が示唆された。
- 参考スコア(独自算出の注目度): 41.43425233041408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human activity recognition (HAR) is fundamental in human-robot collaboration (HRC), enabling robots to respond to and dynamically adapt to human intentions. This paper introduces a HAR system combining a modular data glove equipped with Inertial Measurement Units and a vision-based tactile sensor to capture hand activities in contact with a robot. We tested our activity recognition approach under different conditions, including offline classification of segmented sequences, real-time classification under static conditions, and a realistic HRC scenario. The experimental results show a high accuracy for all the tasks, suggesting that multiple collaborative settings could benefit from this multi-modal approach.
- Abstract(参考訳): HAR(Human Activity Recognition)は、ロボットが人間の意図に反応し、動的に適応できるようにする、ヒューマンロボットコラボレーション(HRC)の基本である。
本稿では,慣性計測ユニットを備えたモジュール型データグローブと,ロボットとの接触時の手の動きを捉える視覚ベースの触覚センサを組み合わせたHARシステムを提案する。
我々は,セグメント化シーケンスのオフライン分類,静的条件下でのリアルタイム分類,現実的なHRCシナリオなど,さまざまな条件下で活動認識アプローチを検証した。
実験の結果、全てのタスクに対して高い精度が示され、複数の協調的な設定がこのマルチモーダルアプローチの恩恵を受ける可能性が示唆された。
関連論文リスト
- Towards Immersive Human-X Interaction: A Real-Time Framework for Physically Plausible Motion Synthesis [51.95817740348585]
Human-Xは、様々な実体をまたいだ没入的で物理的に妥当なヒューマンインタラクションを可能にするために設計された、新しいフレームワークである。
本手法は, 自己回帰型反応拡散プランナを用いて, リアルタイムに反応と反応を同時予測する。
我々のフレームワークは、人間とロボットのインタラクションのための仮想現実インターフェースを含む、現実世界のアプリケーションで検証されている。
論文 参考訳(メタデータ) (2025-08-04T06:35:48Z) - Recognizing Actions from Robotic View for Natural Human-Robot Interaction [52.00935005918032]
自然人-ロボットインタラクション(Natural Human-Robot Interaction, N-HRI)は、ロボット自身が動いているか静止しているかに関わらず、ロボットが様々な距離と状態で人間の行動を認識することを要求する。
N-HRIの既存のベンチマークは、限られたデータ、モダリティ、タスクカテゴリ、主題や環境の多様性のために、N-HRIのユニークな複雑さに対処できない。
モバイルサービスロボットで広く使われている知覚中心ロボットビューのための大規模データセット(Action from Robotic View)を紹介する。
論文 参考訳(メタデータ) (2025-07-30T09:48:34Z) - A Comparative Study of Human Activity Recognition: Motion, Tactile, and multi-modal Approaches [43.97520291340696]
本研究は、視覚に基づく触覚センサが15のアクティビティを分類する能力を評価する。
触覚とモーションデータを組み合わせたマルチモーダル・フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-13T15:20:21Z) - MoVEInt: Mixture of Variational Experts for Learning Human-Robot Interactions from Demonstrations [19.184155232662995]
我々は,人間-ロボットインタラクション(HRI)のための共有潜在空間表現学習のための新しいアプローチを提案する。
本研究では,情報的潜在空間を用いて,ロボットの動きを正規化するための変分オートエンコーダ(VAE)を訓練する。
VAEにおける人間の観察に先立って情報的MDNを使用するアプローチは,より正確なロボットの動きを生成する。
論文 参考訳(メタデータ) (2024-07-10T13:16:12Z) - Learning Multimodal Latent Dynamics for Human-Robot Interaction [18.68936554172693]
本稿では,ヒト-ヒトインタラクション(HHI)から協調型人間-ロボットインタラクション(HRI)を学習する方法を提案する。
本研究では,隠れマルコフモデル(HMM)を変分オートエンコーダの潜在空間として用いて,相互作用するエージェントの結合分布をモデル化するハイブリッドアプローチを考案する。
利用者は,我々の手法を,より人間らしく,タイムリーで,正確なものと認識し,他の基準よりも高い選好度で評価する。
論文 参考訳(メタデータ) (2023-11-27T23:56:59Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - MILD: Multimodal Interactive Latent Dynamics for Learning Human-Robot
Interaction [34.978017200500005]
我々は,HRI(Human-Robot Interactions)の問題に対処するために,MILD(Multimodal Interactive Latent Dynamics)を提案する。
変分オートエンコーダ(VAE)の潜時空間における相互作用エージェントの結合分布をモデル化するために,Hidden Semi-Markov Models (HSMMs) を用いて実演から相互作用ダイナミクスを学習する。
MILDは、観察されたエージェント(人間の)軌道に条件付けされたときに、制御されたエージェント(ロボット)に対してより正確な軌道を生成する。
論文 参考訳(メタデータ) (2022-10-22T11:25:11Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。