論文の概要: 3DFCNN: Real-Time Action Recognition using 3D Deep Neural Networks with
Raw Depth Information
- arxiv url: http://arxiv.org/abs/2006.07743v1
- Date: Sat, 13 Jun 2020 23:24:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:18:09.310882
- Title: 3DFCNN: Real-Time Action Recognition using 3D Deep Neural Networks with
Raw Depth Information
- Title(参考訳): 3dfcnn:深度情報を用いた3次元深層ニューラルネットワークによるリアルタイム行動認識
- Authors: Adrian Sanchez-Caballero, Sergio de L\'opez-Diz, David
Fuentes-Jimenez, Cristina Losada-Guti\'errez, Marta Marr\'on-Romera, David
Casillas-Perez, Mohammad Ibrahim Sarker
- Abstract要約: 本稿では,RGB-Dカメラによる生深度画像系列からのリアルタイム人行動認識手法について述べる。
この提案は、3DFCNNという名前の3D完全畳み込みニューラルネットワークをベースとしている。
- 参考スコア(独自算出の注目度): 1.3854111346209868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human actions recognition is a fundamental task in artificial vision, that
has earned a great importance in recent years due to its multiple applications
in different areas. %, such as the study of human behavior, security or video
surveillance. In this context, this paper describes an approach for real-time
human action recognition from raw depth image-sequences, provided by an RGB-D
camera. The proposal is based on a 3D fully convolutional neural network, named
3DFCNN, which automatically encodes spatio-temporal patterns from depth
sequences without %any costly pre-processing. Furthermore, the described 3D-CNN
allows %automatic features extraction and actions classification from the
spatial and temporal encoded information of depth sequences. The use of depth
data ensures that action recognition is carried out protecting people's
privacy% allows recognizing the actions carried out by people, protecting their
privacy%\sout{of them} , since their identities can not be recognized from
these data. %\st{ from depth images.} 3DFCNN has been evaluated and its results
compared to those from other state-of-the-art methods within three widely used
%large-scale NTU RGB+D datasets, with different characteristics (resolution,
sensor type, number of views, camera location, etc.). The obtained results
allows validating the proposal, concluding that it outperforms several
state-of-the-art approaches based on classical computer vision techniques.
Furthermore, it achieves action recognition accuracy comparable to deep
learning based state-of-the-art methods with a lower computational cost, which
allows its use in real-time applications.
- Abstract(参考訳): 人間の行動認識は人工視覚の基本的な課題であり、近年は様々な分野における複数の応用によって重要な役割を担っている。
%であり, 人間の行動, セキュリティ, ビデオ監視などであった。
本稿では,rgb-dカメラを用いて,生の深度画像列からリアルタイムの動作認識を行う手法について述べる。
この提案は、3DFCNNという名前の3D完全畳み込みニューラルネットワークをベースとしている。
さらに,上記の3d-cnnにより,深度列の空間的および時間的エンコード情報から%自動特徴抽出と行動分類が可能となった。
深層データを使用することで、行動認識が人々のプライバシー%を保護することで、人々の行動を認識し、それらのデータから識別できないため、プライバシ%\sout{of them}を保護することができる。
%\st{ from depth images。
3DFCNNは,3つの大規模NTU RGB+Dデータセット(解像度,センサタイプ,ビュー数,カメラ位置など)において,他の最先端手法と比較して評価されている。
その結果,提案手法の検証が可能となり,従来のコンピュータビジョン技術に基づく最先端の手法よりも優れていた。
さらに、より少ない計算コストでディープラーニングベースの最先端手法に匹敵する行動認識精度を実現し、リアルタイムアプリケーションでの使用を可能にする。
関連論文リスト
- Research on Image Recognition Technology Based on Multimodal Deep Learning [24.259653149898167]
本稿では,ディープニューラルネットワークを用いた人間のマルチモーダル行動識別アルゴリズムについて検討する。
MSR3Dデータセットを用いて提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2024-05-06T01:05:21Z) - Depth Map Denoising Network and Lightweight Fusion Network for Enhanced
3D Face Recognition [61.27785140017464]
本稿では,ノイズを低減するために,DIIF(Denoising Implicit Image Function)に基づくDMDNet(Depth Map Denoising Network)を提案する。
さらに,光深度と標準核融合ネットワーク(LDNFNet)と呼ばれる強力な認識ネットワークを設計し,異なるモード間の特徴と相補的特徴を学習する。
論文 参考訳(メタデータ) (2024-01-01T10:46:42Z) - SpATr: MoCap 3D Human Action Recognition based on Spiral Auto-encoder and Transformer Network [1.4732811715354455]
SpATr(Spiral Auto-Encoder and Transformer Network)と呼ばれる3次元動作認識のための新しいアプローチを提案する。
スパイラル畳み込みに基づく軽量オートエンコーダを用いて,各3次元メッシュから空間幾何学的特徴を抽出する。
提案手法は,Babel,MoVi,BMLrubの3つの顕著な3次元行動データセットを用いて評価した。
論文 参考訳(メタデータ) (2023-06-30T11:49:00Z) - Advancing 3D finger knuckle recognition via deep feature learning [51.871256510747465]
接触のない3Dフィンガーナックルパターンは、識別性、距離からの視認性、利便性、利便性により、効果的な生体認証として出現している。
近年、ディープニューラルネットワークの中間機能を複数のスケールで同時に組み込むディープ・フィーチャー・コラボレーティブ・ネットワークが開発されている。
本稿では,3次元指のナックル画像を表現するために,最小次元の識別特徴ベクトルを学習する可能性を検討することにより,本手法を推し進める。
論文 参考訳(メタデータ) (2023-01-07T20:55:16Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Towards Dense People Detection with Deep Learning and Depth images [9.376814409561726]
本稿では,1つの深度画像から複数の人物を検出するDNNシステムを提案する。
我々のニューラルネットワークは深度画像を処理し、画像座標の確率マップを出力する。
我々は、この戦略が効果的であることを示し、トレーニング中に使用するものと異なるシーンで動作するように一般化したネットワークを創出する。
論文 参考訳(メタデータ) (2020-07-14T16:43:02Z) - Towards Reading Beyond Faces for Sparsity-Aware 4D Affect Recognition [55.15661254072032]
自動4次元表情認識(FER)のための空間認識深層ネットワークを提案する。
まず,深層学習のためのデータ制限問題に対処する新しい拡張手法を提案する。
次に、多視点での畳み込み特徴のスパース表現を計算するために、疎度対応のディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-08T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。