論文の概要: DiG-Net: Enhancing Quality of Life through Hyper-Range Dynamic Gesture Recognition in Assistive Robotics
- arxiv url: http://arxiv.org/abs/2505.24786v1
- Date: Fri, 30 May 2025 16:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.08275
- Title: DiG-Net: Enhancing Quality of Life through Hyper-Range Dynamic Gesture Recognition in Assistive Robotics
- Title(参考訳): DiG-Net:支援ロボティクスにおけるハイパーランジダイナミックジェスチャ認識による生活の質向上
- Authors: Eran Bamani Beeri, Eden Nissinman, Avishai Sintov,
- Abstract要約: ロボット工学に特化して設計された新しいアプローチを導入し,最大30mの距離で動的ジェスチャー認識を実現する。
提案手法では,DADAブロックと時空間グラフモジュールを効果的に組み合わせ,距離対応ゲスチャネットワーク(DiG-Net)を提案する。
かなりの距離からジェスチャーを効果的に解釈することにより、DiG-Netは在宅医療、産業安全、遠隔支援シナリオにおける補助ロボットのユーザビリティを著しく向上させる。
- 参考スコア(独自算出の注目度): 2.625826951636656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic hand gestures play a pivotal role in assistive human-robot interaction (HRI), facilitating intuitive, non-verbal communication, particularly for individuals with mobility constraints or those operating robots remotely. Current gesture recognition methods are mostly limited to short-range interactions, reducing their utility in scenarios demanding robust assistive communication from afar. In this paper, we introduce a novel approach designed specifically for assistive robotics, enabling dynamic gesture recognition at extended distances of up to 30 meters, thereby significantly improving accessibility and quality of life. Our proposed Distance-aware Gesture Network (DiG-Net) effectively combines Depth-Conditioned Deformable Alignment (DADA) blocks with Spatio-Temporal Graph modules, enabling robust processing and classification of gesture sequences captured under challenging conditions, including significant physical attenuation, reduced resolution, and dynamic gesture variations commonly experienced in real-world assistive environments. We further introduce the Radiometric Spatio-Temporal Depth Attenuation Loss (RSTDAL), shown to enhance learning and strengthen model robustness across varying distances. Our model demonstrates significant performance improvement over state-of-the-art gesture recognition frameworks, achieving a recognition accuracy of 97.3% on a diverse dataset with challenging hyper-range gestures. By effectively interpreting gestures from considerable distances, DiG-Net significantly enhances the usability of assistive robots in home healthcare, industrial safety, and remote assistance scenarios, enabling seamless and intuitive interactions for users regardless of physical limitations
- Abstract(参考訳): ダイナミックハンドジェスチャは、直感的で非言語的なコミュニケーションを容易にし、特に移動性制約のある人や遠隔操作ロボットにとって、補助的人間ロボット相互作用(HRI)において重要な役割を果たす。
現在のジェスチャー認識法は主に短距離通信に限られており、遠方からの堅牢な補助通信を必要とするシナリオにおいて、その有用性を低減している。
本稿では,ロボット工学に特化して設計された新しいアプローチを導入し,最大30mの距離での動的ジェスチャー認識を実現し,アクセシビリティと生活の質を大幅に向上させる。
提案した距離認識型ジェスチャーネットワーク(DiG-Net)は,DADAブロックと時空間グラフモジュールを効果的に組み合わせ,物理減衰,分解能の低下,現実の補助環境において一般的に経験される動的ジェスチャーの変動など,困難な条件下でのジェスチャーシーケンスの堅牢な処理と分類を可能にする。
さらに、RSTDAL(Radiometric Spatio-Temporal Depth Attenuation Loss)を導入し、学習を強化し、様々な距離にわたるモデルロバスト性を強化した。
提案モデルは,最先端のジェスチャー認識フレームワークよりも優れた性能を示し,ハイレンジジェスチャーに挑戦する多種多様なデータセット上で97.3%の認識精度を実現している。
かなりの距離からジェスチャーを効果的に解釈することで、DG-Netは在宅医療、産業安全、遠隔支援シナリオにおける支援ロボットのユーザビリティを著しく向上させ、身体的制約にかかわらずシームレスで直感的な対話を可能にする。
関連論文リスト
- Situationally-Aware Dynamics Learning [57.698553219660376]
隠れ状態表現のオンライン学習のための新しいフレームワークを提案する。
提案手法は、非観測パラメータが遷移力学と報酬構造の両方に与える影響を明示的にモデル化する。
シミュレーションと実世界の両方の実験は、データ効率、ポリシー性能、安全で適応的なナビゲーション戦略の出現を著しく改善した。
論文 参考訳(メタデータ) (2025-05-26T06:40:11Z) - Taccel: Scaling Up Vision-based Tactile Robotics via High-performance GPU Simulation [50.34179054785646]
ロボット,触覚センサ,物体を精度と前例のない速度でモデル化するために,IPCとABDを統合した高性能なシミュレーションプラットフォームであるTaccelを提案する。
Taccelは正確な物理シミュレーションとリアルな触覚信号を提供し、ユーザフレンドリーなAPIを通じて柔軟なロボットセンサー構成をサポートする。
これらの能力は、触覚ロボットの研究と開発を拡大するための強力なツールとして、Taccelを位置づけている。
論文 参考訳(メタデータ) (2025-04-17T12:57:11Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - Dynamic Gesture Recognition in Ultra-Range Distance for Effective Human-Robot Interaction [2.625826951636656]
本稿では,人間-ロボットインタラクション(HRI)の課題を遠距離で解決する,超距離ジェスチャー認識のための新しいアプローチを提案する。
ビデオデータに人間のジェスチャーを活用することで,現在の手法の限界を超える時間時空間核融合ネットワーク(TSFN)モデルを提案する。
サービスロボット、捜索・救助活動、ドローンによるインタラクションの応用により、我々のアプローチは拡張環境におけるHRIを強化する。
論文 参考訳(メタデータ) (2024-07-31T06:56:46Z) - Recognition of Dynamic Hand Gestures in Long Distance using a Web-Camera for Robot Guidance [2.625826951636656]
本研究では,最大20mの遠距離からの動的ジェスチャー認識モデルを提案する。
このモデルはSlowFastとTransformerアーキテクチャ(SFT)を統合し、ビデオフレームでキャプチャされた複雑なジェスチャシーケンスを効果的に処理し分類する。
論文 参考訳(メタデータ) (2024-06-18T09:17:28Z) - Dynamic Hand Gesture-Featured Human Motor Adaptation in Tool Delivery
using Voice Recognition [5.13619372598999]
本稿では,革新的なロボット協調フレームワークを提案する。
手の動きや動的動きの認識、音声認識、切り替え可能な制御適応戦略をシームレスに統合する。
ハンドジェスチャ認識における優れた性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-09-20T14:51:09Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Snapture -- A Novel Neural Architecture for Combined Static and Dynamic
Hand Gesture Recognition [19.320551882950706]
そこで本研究では,新しいハイブリットハンドジェスチャ認識システムを提案する。
我々のアーキテクチャは静的なジェスチャーと動的ジェスチャーの両方を学ぶことができる。
本研究は,ロボットとの非言語コミュニケーションのためのジェスチャー認識研究と機械学習応用の両方に貢献する。
論文 参考訳(メタデータ) (2022-05-28T11:12:38Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Learning Obstacle Representations for Neural Motion Planning [70.80176920087136]
学習の観点から,センサを用いたモーションプランニングに対処する。
近年の視覚認識の進歩により,運動計画における適切な表現の学習の重要性が議論されている。
本稿では,PointNetアーキテクチャに基づく新しい障害物表現を提案し,障害物回避ポリシーと共同で学習する。
論文 参考訳(メタデータ) (2020-08-25T17:12:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。