論文の概要: Human Action Recognition from Point Clouds over Time
- arxiv url: http://arxiv.org/abs/2510.05506v3
- Date: Thu, 09 Oct 2025 01:21:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 12:56:53.565653
- Title: Human Action Recognition from Point Clouds over Time
- Title(参考訳): 点雲からの時間的人間の行動認識
- Authors: James Dickens,
- Abstract要約: 本稿では,シーンの背景から人点雲を分割するパイプラインを導入することで,3次元映像からの行動を認識する新しい手法を提案する。
この方法は、深度センサと単眼深度推定の両方から点雲をサポートする。
実験では、認識精度を高めるために、表面の正常、色、赤外線強度、身体部分解析ラベルなどの補助的な特徴が組み込まれている。
- 参考スコア(独自算出の注目度): 0.6345523830122167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research into human action recognition (HAR) has focused predominantly on skeletal action recognition and video-based methods. With the increasing availability of consumer-grade depth sensors and Lidar instruments, there is a growing opportunity to leverage dense 3D data for action recognition, to develop a third way. This paper presents a novel approach for recognizing actions from 3D videos by introducing a pipeline that segments human point clouds from the background of a scene, tracks individuals over time, and performs body part segmentation. The method supports point clouds from both depth sensors and monocular depth estimation. At the core of the proposed HAR framework is a novel backbone for 3D action recognition, which combines point-based techniques with sparse convolutional networks applied to voxel-mapped point cloud sequences. Experiments incorporate auxiliary point features including surface normals, color, infrared intensity, and body part parsing labels, to enhance recognition accuracy. Evaluation on the NTU RGB- D 120 dataset demonstrates that the method is competitive with existing skeletal action recognition algorithms. Moreover, combining both sensor-based and estimated depth inputs in an ensemble setup, this approach achieves 89.3% accuracy when different human subjects are considered for training and testing, outperforming previous point cloud action recognition methods.
- Abstract(参考訳): 人間の行動認識(HAR)に関する最近の研究は、骨格的行動認識とビデオに基づく手法に主に焦点をあてている。
コンシューマグレードの深度センサーやLidar機器が利用可能になるにつれ、高密度な3Dデータをアクション認識に活用し、第3の方法を開発する機会が増えている。
本稿では,シーンの背景から人点雲を分割し,時間とともに個人を追跡し,身体部分のセグメンテーションを行うパイプラインを導入することで,3Dビデオからの行動を認識する新しいアプローチを提案する。
この方法は、深度センサと単眼深度推定の両方から点雲をサポートする。
提案したHARフレームワークの中核は、3Dアクション認識のための新しいバックボーンであり、これは点ベースの技術と、voxelマップされた点クラウドシーケンスに適用されるスパース畳み込みネットワークを組み合わせたものである。
実験では、認識精度を高めるために、表面の正常、色、赤外線強度、身体部分解析ラベルなどの補助的な特徴が組み込まれている。
NTU RGB-D 120データセットの評価は、既存の骨格行動認識アルゴリズムと競合することを示す。
さらに、センサベースと推定深度入力をアンサンブル設定で組み合わせることで、トレーニングやテストにおいて異なる被験者が考慮された場合、89.3%の精度を達成し、従来のポイントクラウド動作認識法よりも優れていた。
関連論文リスト
- Robust Human Registration with Body Part Segmentation on Noisy Point Clouds [73.00876572870787]
メッシュフィッティングプロセスにボディ部分のセグメンテーションを組み込んだハイブリッドアプローチを導入する。
本手法はまず,まず各点にボディ部ラベルを割り当て,次に2ステップのSMPL-Xフィッティングを導出する。
装着された人間のメッシュは、ボディ部分のラベルを洗練し、セグメンテーションの改善につながることを実証する。
論文 参考訳(メタデータ) (2025-04-04T17:17:33Z) - Confidence-Aware RGB-D Face Recognition via Virtual Depth Synthesis [48.59382455101753]
2D顔認証は、照明、閉塞、ポーズの変化により、制約のない環境において課題に遭遇する。
近年の研究では、深度情報を組み込んだRGB-D顔認証に焦点が当てられている。
本研究では,まず,深度モデル事前学習のための3次元Morphable Modelsによって生成された多様な深度データセットを構築する。
そこで本研究では,手軽に利用できるRGBと深度モデルを利用したドメイン非依存の事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:12:24Z) - PointHPS: Cascaded 3D Human Pose and Shape Estimation from Point Clouds [99.60575439926963]
本稿では,実環境で捉えた点雲から正確な3次元HPSを実現するための基本的フレームワークであるPointHPSを提案する。
PointHPSは、カスケードアーキテクチャを通じてポイント機能を反復的に洗練する。
広範囲な実験により、ポイントHPSは強力な特徴抽出と処理方式を持ち、State-of-the-Art法より優れていることが示された。
論文 参考訳(メタデータ) (2023-08-28T11:10:14Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Analysis and Evaluation of Kinect-based Action Recognition Algorithms [2.7064617166078087]
我々は,HDGアルゴリズムの実装と改良を行い,UWA3D Multiview Activity データセットを用いたクロスビュー動作認識に適用した。
実験の結果,HDGの精度は,他の3つの最先端アルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-12-16T05:04:06Z) - Anchor-Based Spatial-Temporal Attention Convolutional Networks for
Dynamic 3D Point Cloud Sequences [20.697745449159097]
動的3次元点雲列を処理するために,アンカー型時空間注意畳み込み演算(astaconv)を提案する。
提案する畳み込み操作は、各点の周囲に複数の仮想アンカーを設定することにより、各点の周囲にレギュラーレセプティブフィールドを構築する。
提案手法は,局所領域内の構造化情報をよりよく活用し,動的3次元点雲列から空間-時間埋め込み特徴を学習する。
論文 参考訳(メタデータ) (2020-12-20T07:35:37Z) - 3DFCNN: Real-Time Action Recognition using 3D Deep Neural Networks with
Raw Depth Information [1.3854111346209868]
本稿では,RGB-Dカメラによる生深度画像系列からのリアルタイム人行動認識手法について述べる。
この提案は、3DFCNNという名前の3D完全畳み込みニューラルネットワークをベースとしている。
論文 参考訳(メタデータ) (2020-06-13T23:24:07Z) - Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud
Object Detection [64.2159881697615]
3Dポイント雲からの物体検出は依然として難しい課題だが、最近の研究ではディープラーニング技術によって封筒を推し進めている。
本稿では,特徴表現の堅牢性を高めるために,ドメイン適応のようなアプローチを提案する。
我々の単純で効果的なアプローチは、3Dポイントクラウドオブジェクト検出の性能を根本的に向上させ、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-06-08T05:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。