論文の概要: Human Action Recognition (HAR) Using Skeleton-based Quantum Spatial Temporal Relative Transformer Network: ST-RTR
- arxiv url: http://arxiv.org/abs/2410.23806v1
- Date: Thu, 31 Oct 2024 10:46:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:01:49.326851
- Title: Human Action Recognition (HAR) Using Skeleton-based Quantum Spatial Temporal Relative Transformer Network: ST-RTR
- Title(参考訳): 骨格型量子時空間相対変換ネットワークST-RTRを用いた人行動認識(HAR)
- Authors: Faisal Mehmood, Enqing Chen, Touqeer Abbas, Samah M. Alzanin,
- Abstract要約: 量子時空間相対変換器ST-RTRモデルを開発した。
ネットワーク内の効率的な通信とデータ転送を可能にするジョイントノードとリレーノードが含まれる。
標準ST-GCN法と関連する動作認識を大幅に改善する。
- 参考スコア(独自算出の注目度): 1.1474575075646143
- License:
- Abstract: Quantum Human Action Recognition (HAR) is an interesting research area in human-computer interaction used to monitor the activities of elderly and disabled individuals affected by physical and mental health. In the recent era, skeleton-based HAR has received much attention because skeleton data has shown that it can handle changes in striking, body size, camera views, and complex backgrounds. One key characteristic of ST-GCN is automatically learning spatial and temporal patterns from skeleton sequences. It has some limitations, as this method only works for short-range correlation due to its limited receptive field. Consequently, understanding human action requires long-range interconnection. To address this issue, we developed a quantum spatial-temporal relative transformer ST-RTR model. The ST-RTR includes joint and relay nodes, which allow efficient communication and data transmission within the network. These nodes help to break the inherent spatial and temporal skeleton topologies, which enables the model to understand long-range human action better. Furthermore, we combine quantum ST-RTR with a fusion model for further performance improvements. To assess the performance of the quantum ST-RTR method, we conducted experiments on three skeleton-based HAR benchmarks: NTU RGB+D 60, NTU RGB+D 120, and UAV-Human. It boosted CS and CV by 2.11 % and 1.45% on NTU RGB+D 60, 1.25% and 1.05% on NTU RGB+D 120. On UAV-Human datasets, accuracy improved by 2.54%. The experimental outcomes explain that the proposed ST-RTR model significantly improves action recognition associated with the standard ST-GCN method.
- Abstract(参考訳): 量子人行動認識(英: Quantum Human Action Recognition, HAR)は、身体的および精神的な健康に影響を及ぼす高齢者や障害者の活動を監視するために使用される、人間とコンピュータの相互作用における興味深い研究分野である。
近年、骨格に基づくHARが注目されているのは、骨格データによって、打撃、体の大きさ、カメラビュー、複雑な背景の変化を処理できることが示されているからである。
ST-GCNの重要な特徴は、骨格配列から空間パターンと時間パターンを自動的に学習することである。
この方法にはいくつかの制限があるが、この手法は受容場が制限されているため、短距離相関に対してのみ有効である。
そのため、人間の行動を理解するには長距離の相互接続が必要である。
この問題に対処するため、量子時空間相対変換器ST-RTRモデルを開発した。
ST-RTRは、ネットワーク内の効率的な通信とデータ転送を可能にするジョイントノードとリレーノードを含んでいる。
これらのノードは、空間的および時間的骨格のトポロジーを破り、モデルが長距離人間の行動をよりよく理解できるようにするのに役立つ。
さらに,量子ST-RTRと融合モデルを組み合わせることにより,さらなる性能向上を図る。
量子ST-RTR法の性能を評価するため,NTU RGB+D 60,NTU RGB+D 120,UAV-Humanの3つの骨格型HARベンチマーク実験を行った。
NTU RGB+D 60ではCSとCVが2.11%、1.45%、NTU RGB+D 120では1.25%、1.05%増加した。
UAV-Humanデータセットでは、精度が2.54%向上した。
実験結果から,ST-RTRモデルは標準ST-GCN法と関連する動作認識を大幅に改善することがわかった。
関連論文リスト
- Handling Geometric Domain Shifts in Semantic Segmentation of Surgical RGB and Hyperspectral Images [67.66644395272075]
本稿では,幾何学的アウト・オブ・ディストリビューションデータに直面する場合の,最先端のセマンティックセマンティックセマンティクスモデルの最初の解析を行う。
本稿では, 汎用性を高めるために, 有機移植(Organ Transplantation)と呼ばれる拡張技術を提案する。
我々の拡張技術は、RGBデータに対して最大67%、HSIデータに対して90%のSOAモデル性能を改善し、実際のOODテストデータに対して、分配内パフォーマンスのレベルでのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-27T19:13:15Z) - Disentangling Spatial and Temporal Learning for Efficient Image-to-Video
Transfer Learning [59.26623999209235]
ビデオの空間的側面と時間的側面の学習を両立させるDiSTを提案する。
DiSTの非絡み合い学習は、大量の事前学習パラメータのバックプロパゲーションを避けるため、非常に効率的である。
5つのベンチマークの大規模な実験は、DiSTが既存の最先端メソッドよりも優れたパフォーマンスを提供することを示す。
論文 参考訳(メタデータ) (2023-09-14T17:58:33Z) - WiFi-TCN: Temporal Convolution for Human Interaction Recognition based
on WiFi signal [4.0773490083614075]
近年,Wi-Fiによる人間活動認識が注目されている。
Wi-FiベースのHARにまつわる課題は、シーンや被写体が変化するときのパフォーマンスが著しく低下することである。
本稿では,TN-AAと呼ばれる時間的畳み込みネットワークを利用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T08:37:32Z) - Continual Spatio-Temporal Graph Convolutional Networks [87.86552250152872]
時空間グラフ畳み込みニューラルネットワークを連続推論ネットワークとして再構成する。
オンライン推論において、最大109倍の時間複雑性、26倍のハードウェアアクセラレーション、最大割り当てメモリの最大52%の削減を観測した。
論文 参考訳(メタデータ) (2022-03-21T14:23:18Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Spatial Temporal Transformer Network for Skeleton-based Action
Recognition [12.117737635879037]
関節間の依存関係をモデル化する新しい空間-時間変換器ネットワーク(ST-TR)を提案する。
ST-TRモデルでは、SSA(Spatial Self-Attention Module)とTSA(temporal Self-Attention Module)を用いてフレーム間の相関をモデル化しています。
両者は2ストリームネットワークで結合され、同じ入力データを用いて最先端モデルより優れている。
論文 参考訳(メタデータ) (2020-12-11T14:58:21Z) - Skeleton-based Action Recognition via Spatial and Temporal Transformer
Networks [12.06555892772049]
本研究では,トランスフォーマーの自己アテンション演算子を用いて,関節間の依存関係をモデル化する空間-テンポラルトランスフォーマーネットワークを提案する。
提案したST-TRは,関節座標を入力として使用する場合のすべてのデータセットの最先端性能を達成し,骨情報を追加する場合の最先端特性と一致させる。
論文 参考訳(メタデータ) (2020-08-17T15:25:40Z) - Learn to cycle: Time-consistent feature discovery for action recognition [83.43682368129072]
時間的変動を一般化することは、ビデオにおける効果的な行動認識の前提条件である。
Squeeze Re Temporal Gates (SRTG) を導入する。
SRTPGブロックを使用する場合,GFLOの数は最小限に抑えられ,一貫した改善が見られた。
論文 参考訳(メタデータ) (2020-06-15T09:36:28Z) - Exploiting the ConvLSTM: Human Action Recognition using Raw Depth
Video-Based Recurrent Neural Networks [0.0]
本稿では,畳み込み長短期記憶ユニット,すなわちConvLSTMに基づく2つのニューラルネットワークを提案し,比較する。
提案モデルは,最先端手法と比較して,計算コストの低い競合認識精度を実現する。
論文 参考訳(メタデータ) (2020-06-13T23:35:59Z) - Efficiently Calibrating Cable-Driven Surgical Robots with RGBD Fiducial
Sensing and Recurrent Neural Networks [26.250886014613762]
そこで本研究では,RGBDセンサを用いて3次元プリントされたフィデューシャル座標フレームをアームとエンドエフェクタに配置することで,ロボットを効率的に校正する手法を提案する。
提案手法では,1800サンプルのデータ収集に31分,モデルトレーニングに1分を要した。
基準軌道の試験セットの結果から、トレーニングされたモデルは、物理ロボットの平均追尾誤差を2.96mmから0.65mmに減少させることができることが示唆された。
論文 参考訳(メタデータ) (2020-03-19T00:24:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。