論文の概要: Analysis and Evaluation of Kinect-based Action Recognition Algorithms
- arxiv url: http://arxiv.org/abs/2112.08626v3
- Date: Fri, 7 Jun 2024 09:07:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 23:21:09.503707
- Title: Analysis and Evaluation of Kinect-based Action Recognition Algorithms
- Title(参考訳): Kinectを用いた行動認識アルゴリズムの解析と評価
- Authors: Lei Wang,
- Abstract要約: 我々は,HDGアルゴリズムの実装と改良を行い,UWA3D Multiview Activity データセットを用いたクロスビュー動作認識に適用した。
実験の結果,HDGの精度は,他の3つの最先端アルゴリズムよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 2.7064617166078087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human action recognition still exists many challenging problems such as different viewpoints, occlusion, lighting conditions, human body size and the speed of action execution, although it has been widely used in different areas. To tackle these challenges, the Kinect depth sensor has been developed to record real time depth sequences, which are insensitive to the color of human clothes and illumination conditions. Many methods on recognizing human action have been reported in the literature such as HON4D, HOPC, RBD and HDG, which use the 4D surface normals, pointclouds, skeleton-based model and depth gradients respectively to capture discriminative information from depth videos or skeleton data. In this research project, the performance of four aforementioned algorithms will be analyzed and evaluated using five benchmark datasets, which cover challenging issues such as noise, change of viewpoints, background clutters and occlusions. We also implemented and improved the HDG algorithm, and applied it in cross-view action recognition using the UWA3D Multiview Activity dataset. Moreover, we used different combinations of individual feature vectors in HDG for performance evaluation. The experimental results show that our improvement of HDG outperforms other three state-of-the-art algorithms for cross-view action recognition.
- Abstract(参考訳): 人間の行動認識には、様々な視点、隠蔽、照明条件、人体の大きさ、行動実行の速度など多くの課題がある。
これらの課題に対処するため、Kinect深度センサーは、人間の衣服の色や照明条件に敏感なリアルタイム深度シーケンスを記録するために開発された。
HON4D, HOPC, RBD, HDGなどの文献では, 4次元表面の正規分布, 点雲, 骨格モデル, 深度勾配を用いて, 深度ビデオや骨格データから識別情報を抽出する手法が報告されている。
本研究プロジェクトでは,上記4つのアルゴリズムの性能を5つのベンチマークデータセットを用いて解析し,評価する。
また,HDGアルゴリズムの実装と改良を行い,UWA3D Multiview Activity データセットを用いたクロスビュー動作認識に適用した。
また,HDGにおける特徴ベクトルの異なる組み合わせを用いて性能評価を行った。
実験の結果,HDGの精度は,他の3つの最先端アルゴリズムよりも優れていることがわかった。
関連論文リスト
- Research on Image Recognition Technology Based on Multimodal Deep Learning [24.259653149898167]
本稿では,ディープニューラルネットワークを用いた人間のマルチモーダル行動識別アルゴリズムについて検討する。
MSR3Dデータセットを用いて提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2024-05-06T01:05:21Z) - Two Approaches to Supervised Image Segmentation [55.616364225463066]
本研究は、深層学習とマルチセットニューロンのアプローチの比較実験を開発する。
ディープラーニングアプローチは、画像セグメンテーションの実行の可能性を確認した。
代替のマルチセット手法では、計算資源をほとんど必要とせずに精度を向上することができた。
論文 参考訳(メタデータ) (2023-07-19T16:42:52Z) - Neural Point-based Volumetric Avatar: Surface-guided Neural Points for
Efficient and Photorealistic Volumetric Head Avatar [62.87222308616711]
ニューラルポイント表現とニューラルボリュームレンダリングプロセスを採用したフルネーム(名前)を提案する。
具体的には、ニューラルポイントは高分解能UV変位マップを介してターゲット表現の表面を戦略的に拘束する。
設計上は,アバターをアニメーションする際の正確な表現制御を確保しつつ,地形的に変化する領域や細い構造を扱えるように設計されている。
論文 参考訳(メタデータ) (2023-07-11T03:40:10Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - A Multi-viewpoint Outdoor Dataset for Human Action Recognition [3.522154868524807]
我々は,YouTubeと当社のドローンから収集した多視点屋外行動認識データセットを提案する。
データセットは、20の動的なヒューマンアクションクラス、2324のビデオクリップ、503086フレームで構成されている。
全体のベースライン動作認識精度は74.0%である。
論文 参考訳(メタデータ) (2021-10-07T14:50:43Z) - A Benchmark for Gait Recognition under Occlusion Collected by
Multi-Kinect SDAS [6.922350076348358]
我々はOG RGB+Dデータベースと呼ばれる新しい歩行データベースを収集し、他の歩行データベースの制限を突破する。
Azure Kinect DKは、異なるタイプの歩行認識アルゴリズムをサポートするために、同時にマルチモーダルデータを収集することができる。
人間の二重骨格モデルに基づく歩行認識手法SkeletonGaitを提案する。
論文 参考訳(メタデータ) (2021-07-19T16:01:18Z) - Robust Data Hiding Using Inverse Gradient Attention [82.73143630466629]
データ隠蔽タスクでは、異なる耐久性を有するため、カバー画像の各ピクセルを別々に扱う必要がある。
Inverse Gradient Attention (IGA) を用いた新しい深層データ隠蔽方式を提案する。
実証的な実験により、提案モデルが2つの先行するデータセット上で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-11-21T19:08:23Z) - Parallax Motion Effect Generation Through Instance Segmentation And
Depth Estimation [1.8350736912359715]
単一画像からパララックス運動効果を生成するアルゴリズムを提案する。
PyD-Net ネットワークと Mask R-CNN や FBNet ネットワークが組み合わさってパララックス運動効果を生成できることを示す。
論文 参考訳(メタデータ) (2020-10-06T12:56:59Z) - 3DFCNN: Real-Time Action Recognition using 3D Deep Neural Networks with
Raw Depth Information [1.3854111346209868]
本稿では,RGB-Dカメラによる生深度画像系列からのリアルタイム人行動認識手法について述べる。
この提案は、3DFCNNという名前の3D完全畳み込みニューラルネットワークをベースとしている。
論文 参考訳(メタデータ) (2020-06-13T23:24:07Z) - A Deep Learning Approach for Motion Forecasting Using 4D OCT Data [69.62333053044712]
我々は,OCTボリュームのストリームを用いたエンド・ツー・エンド動作予測と推定のための4次元時間深度学習を提案する。
提案手法は,全体の平均相関97.41%の動作予測を実現するとともに,従来の3D手法と比較して2.5倍の動作推定性能を向上する。
論文 参考訳(メタデータ) (2020-04-21T15:59:53Z) - Towards Reading Beyond Faces for Sparsity-Aware 4D Affect Recognition [55.15661254072032]
自動4次元表情認識(FER)のための空間認識深層ネットワークを提案する。
まず,深層学習のためのデータ制限問題に対処する新しい拡張手法を提案する。
次に、多視点での畳み込み特徴のスパース表現を計算するために、疎度対応のディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-08T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。