論文の概要: Gait Identification under Surveillance Environment based on Human
Skeleton
- arxiv url: http://arxiv.org/abs/2111.11720v2
- Date: Wed, 24 Nov 2021 14:43:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 13:07:48.645260
- Title: Gait Identification under Surveillance Environment based on Human
Skeleton
- Title(参考訳): 人体骨格に基づく監視環境下での歩行同定
- Authors: Xingkai Zheng, Xirui Li, Ke Xu, Xinghao Jiang, Tanfeng Sun
- Abstract要約: 本稿では,骨格に基づく歩行識別ネットワークを提案する。
まず、ビデオから骨格配列を抽出し、それらを歩行グラフにマッピングする。
次に、時空間グラフ畳み込みネットワーク(ST-GCN)に基づく特徴抽出ネットワークを構築し、歩行表現を学習する。
- 参考スコア(独自算出の注目度): 18.344231394082506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As an emerging biological identification technology, vision-based gait
identification is an important research content in biometrics. Most existing
gait identification methods extract features from gait videos and identify a
probe sample by a query in the gallery. However, video data contains redundant
information and can be easily influenced by bagging (BG) and clothing (CL).
Since human body skeletons convey essential information about human gaits, a
skeleton-based gait identification network is proposed in our project. First,
extract skeleton sequences from the video and map them into a gait graph. Then
a feature extraction network based on Spatio-Temporal Graph Convolutional
Network (ST-GCN) is constructed to learn gait representations. Finally, the
probe sample is identified by matching with the most similar piece in the
gallery. We tested our method on the CASIA-B dataset. The result shows that our
approach is highly adaptive and gets the advanced result in BG, CL conditions,
and average.
- Abstract(参考訳): 生体認証技術として、視覚ベースの歩行識別はバイオメトリックスにおける重要な研究内容である。
既存のゲイト識別手法のほとんどは、ゲイトビデオから特徴を抽出し、ギャラリー内のクエリによってプローブサンプルを識別する。
しかしビデオデータには冗長な情報が含まれており,袋詰 (bg) や衣服 (cl) の影響を受けやすい。
人体骨格は人間の歩行に関する重要な情報を伝達するので,本プロジェクトでは骨格に基づく歩行識別ネットワークを提案する。
まず、ビデオから骨格配列を抽出し、それらを歩行グラフにマッピングする。
次に、時空間グラフ畳み込みネットワーク(ST-GCN)に基づく特徴抽出ネットワークを構築し、歩行表現を学習する。
最後に、プローブサンプルをギャラリーの最もよく似た部分と一致させて識別する。
提案手法をCASIA-Bデータセットで検証した。
その結果,本手法は適応性が高く,BG,CL条件,平均値の高度な結果が得られることがわかった。
関連論文リスト
- AtGCN: A Graph Convolutional Network For Ataxic Gait Detection [0.0]
本稿では,アタキシー歩行を検出するために,AtGCNと呼ばれるグラフ畳み込みネットワークを提案する。
この問題は、健康な歩行からの失速歩行のずれが非常に微妙であるため、難しい。
提案したAtGCNモデルは、93.46%の精度と0.4169のMAEで検出および予測の最先端をそれぞれ上回る。
論文 参考訳(メタデータ) (2024-10-30T09:55:30Z) - Open-Vocabulary Object Detection via Scene Graph Discovery [53.27673119360868]
オープンボキャブラリ(OV)オブジェクト検出は研究の注目を集めている。
OV検出にシーングラフキューを利用するSGDN(Scene-Graph-Based Discovery Network)を提案する。
論文 参考訳(メタデータ) (2023-07-07T00:46:19Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - Topological Data Analysis (TDA) Techniques Enhance Hand Pose
Classification from ECoG Neural Recordings [0.0]
時系列データのトポロジ的記述を導入し、手ポーズ分類を強化する。
4ラベルの分類問題に対して,可利用データに制限のあるAC精度で頑健な結果が得られた。
論文 参考訳(メタデータ) (2021-10-09T22:04:43Z) - Finding Facial Forgery Artifacts with Parts-Based Detectors [73.08584805913813]
顔の個々の部分に焦点を絞った一連の偽造検知システムを設計する。
これらの検出器を用いて、FaceForensics++、Celeb-DF、Facebook Deepfake Detection Challengeデータセットの詳細な実験分析を行う。
論文 参考訳(メタデータ) (2021-09-21T16:18:45Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - GaitGraph: Graph Convolutional Network for Skeleton-Based Gait
Recognition [6.353193172884524]
歩行認識は、遠距離から個々の歩行パターンを特定するための、有望なビデオベースのバイオメトリックである。
ほとんどの歩行認識法は、シルエット画像を用いて各フレーム内の人物を表現する。
本稿では,スケルトンポーズをグラフ畳み込みネットワーク(GCN)と組み合わせたGaitGraphを提案する。
論文 参考訳(メタデータ) (2021-01-27T07:14:06Z) - Associated Spatio-Temporal Capsule Network for Gait Recognition [36.85667679699001]
最先端のアプローチは、歩行の時間的または空間的特性の分析に依存する。
ASTCapsNetはマルチセンサーデータセットのトレーニングを受け、歩行認識のためのマルチモーダル情報を分析します。
論文 参考訳(メタデータ) (2021-01-07T09:55:17Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。