論文の概要: DeepSORT-Driven Visual Tracking Approach for Gesture Recognition in Interactive Systems
- arxiv url: http://arxiv.org/abs/2505.07110v1
- Date: Sun, 11 May 2025 20:35:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.217904
- Title: DeepSORT-Driven Visual Tracking Approach for Gesture Recognition in Interactive Systems
- Title(参考訳): 対話型システムにおけるジェスチャー認識のためのDeepSORT駆動型視覚追跡手法
- Authors: Tong Zhang, Fenghua Shao, Runsheng Zhang, Yifan Zhuang, Liuqingqing Yang,
- Abstract要約: DeepSORTアルゴリズムは、カルマンフィルタとディープラーニング特徴抽出法を組み合わせることにより、動的環境における正確な目標追跡を実現することができる。
本研究では,ジェスチャー認識とトラッキングにおけるDeepSORTの優れた性能を実験的に検証する。
- 参考スコア(独自算出の注目度): 8.977727627113103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on the DeepSORT algorithm, this study explores the application of visual tracking technology in intelligent human-computer interaction, especially in the field of gesture recognition and tracking. With the rapid development of artificial intelligence and deep learning technology, visual-based interaction has gradually replaced traditional input devices and become an important way for intelligent systems to interact with users. The DeepSORT algorithm can achieve accurate target tracking in dynamic environments by combining Kalman filters and deep learning feature extraction methods. It is especially suitable for complex scenes with multi-target tracking and fast movements. This study experimentally verifies the superior performance of DeepSORT in gesture recognition and tracking. It can accurately capture and track the user's gesture trajectory and is superior to traditional tracking methods in terms of real-time and accuracy. In addition, this study also combines gesture recognition experiments to evaluate the recognition ability and feedback response of the DeepSORT algorithm under different gestures (such as sliding, clicking, and zooming). The experimental results show that DeepSORT can not only effectively deal with target occlusion and motion blur but also can stably track in a multi-target environment, achieving a smooth user interaction experience. Finally, this paper looks forward to the future development direction of intelligent human-computer interaction systems based on visual tracking and proposes future research focuses such as algorithm optimization, data fusion, and multimodal interaction in order to promote a more intelligent and personalized interactive experience. Keywords-DeepSORT, visual tracking, gesture recognition, human-computer interaction
- Abstract(参考訳): 本稿では,DeepSORTアルゴリズムをベースとして,視覚トラッキング技術の知的コンピュータインタラクション,特にジェスチャー認識・トラッキング分野への応用について検討する。
人工知能とディープラーニング技術の急速な発展により、視覚ベースのインタラクションは、従来の入力デバイスを徐々に置き換え、インテリジェントなシステムがユーザと対話するための重要な方法となった。
DeepSORTアルゴリズムは、カルマンフィルタとディープラーニング特徴抽出法を組み合わせることにより、動的環境における正確な目標追跡を実現することができる。
マルチターゲットトラッキングと高速動作を備えた複雑なシーンに特に適している。
本研究では,ジェスチャー認識とトラッキングにおけるDeepSORTの優れた性能を実験的に検証する。
ユーザのジェスチャーの軌跡を正確に把握および追跡することができ、リアルタイムと精度の点で従来のトラッキング方法よりも優れている。
さらに、ジェスチャー認識実験を組み合わせて、異なるジェスチャー(スライディング、クリック、ズームなど)下でのDeepSORTアルゴリズムの認識能力とフィードバック応答を評価する。
実験の結果,DeepSORTはターゲットの閉塞や動きのぼやけを効果的に扱えるだけでなく,マルチターゲット環境でも安定して追跡でき,スムーズなユーザインタラクションを実現することができることがわかった。
最後に,視覚的トラッキングに基づくインテリジェント・ヒューマン・コンピュータ・インタラクション・システムの今後の展開を楽しみ,よりインテリジェントでパーソナライズされたインタラクティブ・エクスペリエンスを促進するために,アルゴリズム最適化やデータ融合,マルチモーダル・インタラクションといった今後の研究課題を提案する。
キーワード-DeepSORT、ビジュアルトラッキング、ジェスチャー認識、人間とコンピュータの相互作用
関連論文リスト
- Computer Vision-Driven Gesture Recognition: Toward Natural and Intuitive Human-Computer [21.70275919660522]
本研究では,コンピュータビジョンに基づく自然なジェスチャー認識の人間-コンピュータインタラクションへの応用について検討する。
手のひらと各指関節を接続することにより、手の動的かつ静的なジェスチャーモデルを形成する。
実験により,様々なジェスチャーを効果的に認識し,高い認識精度とリアルタイム応答能力を維持できることが示唆された。
論文 参考訳(メタデータ) (2024-12-24T10:13:20Z) - I-MPN: Inductive Message Passing Network for Efficient Human-in-the-Loop Annotation of Mobile Eye Tracking Data [4.487146086221174]
本稿では,移動眼球追跡設定における物体の自動認識のための新しい人間中心学習アルゴリズムを提案する。
提案手法は,オブジェクト検出器と空間的関係を考慮した誘導型メッセージパッシングネットワーク(I-MPN)をシームレスに統合し,ノードプロファイル情報を活用し,オブジェクト相関を捉える。
論文 参考訳(メタデータ) (2024-06-10T13:08:31Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Investigating Deep Neural Network Architecture and Feature Extraction
Designs for Sensor-based Human Activity Recognition [0.0]
様々な領域にわたるディープラーニングの有効性が証明されたことを踏まえ、アクティビティ認識の課題に取り組むために多くのディープメソッドが検討されている。
一般的なディープラーニングと機械学習の手法と、異なる学習メカニズムの性能について検討する。
センサ時系列データから抽出した様々な特徴表現と,その有効性を測定した。
論文 参考訳(メタデータ) (2023-09-26T14:55:32Z) - A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Attention-Oriented Action Recognition for Real-Time Human-Robot
Interaction [11.285529781751984]
本稿では,リアルタイムインタラクションの必要性に応えるために,アテンション指向のマルチレベルネットワークフレームワークを提案する。
具体的には、プレアテンションネットワークを使用して、低解像度でシーン内のインタラクションに大まかにフォーカスする。
他のコンパクトCNNは、抽出されたスケルトンシーケンスをアクション認識用の入力として受信する。
論文 参考訳(メタデータ) (2020-07-02T12:41:28Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。