論文の概要: Motion Gait: Gait Recognition via Motion Excitation
- arxiv url: http://arxiv.org/abs/2206.11080v1
- Date: Wed, 22 Jun 2022 13:47:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 15:35:02.151356
- Title: Motion Gait: Gait Recognition via Motion Excitation
- Title(参考訳): モーション・ゲイト:モーション・エキサイティングによる歩行認識
- Authors: Yunpeng Zhang, Zhengyou Wang, Shanna Zhuang, Hui Wang
- Abstract要約: 本研究では,時間的特徴をガイドする動作励起モジュール (MEM) を提案する。
MEMはフレームと間隔の違い情報を学習し、時間変動の表現を得る。
本研究では,人間の水平部分の空間的時間的表現に基づいて独立に学習するファイン・フィーチャー・エクストラクタ(EFF)を提案する。
- 参考スコア(独自算出の注目度): 5.559482051571756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition, which can realize long-distance and contactless
identification, is an important biometric technology. Recent gait recognition
methods focus on learning the pattern of human movement or appearance during
walking, and construct the corresponding spatio-temporal representations.
However, different individuals have their own laws of movement patterns, simple
spatial-temporal features are difficult to describe changes in motion of human
parts, especially when confounding variables such as clothing and carrying are
included, thus distinguishability of features is reduced. In this paper, we
propose the Motion Excitation Module (MEM) to guide spatio-temporal features to
focus on human parts with large dynamic changes, MEM learns the difference
information between frames and intervals, so as to obtain the representation of
temporal motion changes, it is worth mentioning that MEM can adapt to frame
sequences with uncertain length, and it does not add any additional parameters.
Furthermore, we present the Fine Feature Extractor (FFE), which independently
learns the spatio-temporal representations of human body according to different
horizontal parts of individuals. Benefiting from MEM and FFE, our method
innovatively combines motion change information, significantly improving the
performance of the model under cross appearance conditions. On the popular
dataset CASIA-B, our proposed Motion Gait is better than the existing gait
recognition methods.
- Abstract(参考訳): 長距離かつ接触のない識別を実現する歩行認識は重要な生体計測技術である。
最近の歩行認識手法は、歩行中の人間の動きや外観のパターンを学習することに集中し、対応する時空間表現を構築する。
しかし, 動作パターンは個人によって異なり, 簡単な時空間的特徴は人体の動作の変化を記述することが困難であり, 特に衣服や携帯などの相違変数が混在している場合, 特徴の識別性が低下する。
本稿では,運動励起モジュール (mem) を提案する。空間的特徴を,大きな動的変化を伴う人間の部分に集中させ,フレームと間隔の差情報をmemが学習し,時間的運動変化の表現を得るため,memが不確定な長さのフレームシーケンスに適応可能であり,追加パラメータを付加しない。
さらに,個人の水平部分に応じて人体の時空間的表現を独立に学習するファイン・フィーチャー・エクストラクタ(FFE)を提案する。
提案手法はMEMとFFEを併用し, 動作変化情報を革新的に組み合わせ, 異機種間における性能を著しく向上する。
一般的なデータセットであるCASIA-Bでは,既存の歩行認識法よりもMotion Gaitの方が優れている。
関連論文リスト
- Priority-Centric Human Motion Generation in Discrete Latent Space [59.401128190423535]
テキスト・ツー・モーション生成のための優先中心運動離散拡散モデル(M2DM)を提案する。
M2DMは、コード崩壊に対処するために、グローバルな自己注意機構と正規化用語を組み込んでいる。
また、各動きトークンの重要度から決定される革新的なノイズスケジュールを用いた動き離散拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T10:40:16Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - PACE: Data-Driven Virtual Agent Interaction in Dense and Cluttered
Environments [69.03289331433874]
PACEは,高密度で散らばった3Dシーン全体と対話し,移動するために,モーションキャプチャーされた仮想エージェントを改良する新しい手法である。
本手法では,環境中の障害物や物体に適応するために,仮想エージェントの動作シーケンスを必要に応じて変更する。
提案手法を先行動作生成技術と比較し,本手法の利点を知覚的研究と身体的妥当性の指標と比較した。
論文 参考訳(メタデータ) (2023-03-24T19:49:08Z) - Mutual Information-Based Temporal Difference Learning for Human Pose
Estimation in Video [16.32910684198013]
本稿では,動的コンテキストをモデル化するために,フレーム間の時間差を利用した新しいヒューマンポーズ推定フレームワークを提案する。
具体的には、多段階差分を条件とした多段階絡み合い学習シーケンスを設計し、情報的動作表現シーケンスを導出する。
以下は、HiEveベンチマークで、複合イベントチャレンジにおけるクラウドポーズ推定において、第1位にランク付けします。
論文 参考訳(メタデータ) (2023-03-15T09:29:03Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Spatio-temporal Gait Feature with Adaptive Distance Alignment [90.5842782685509]
我々は,ネットワーク構造の最適化と抽出した歩行特徴の洗練という2つの側面から,異なる被験者の歩行特徴の差を増大させようとしている。
提案手法は時空間特徴抽出(SFE)と適応距離アライメント(ADA)から構成される。
ADAは実生活における多数の未ラベルの歩行データをベンチマークとして使用し、抽出した時間的特徴を洗練し、クラス間類似度が低く、クラス内類似度が高いようにしている。
論文 参考訳(メタデータ) (2022-03-07T13:34:00Z) - Behavior Recognition Based on the Integration of Multigranular Motion
Features [17.052997301790693]
マルチグラニュラ(IMG)運動特徴の統合に基づく新しい行動認識手法を提案する。
我々は,HMDB51,Something,UCF101など,いくつかの行動認識ベンチマークを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T02:05:26Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - TSI: Temporal Saliency Integration for Video Action Recognition [32.18535820790586]
本稿では,SME(Salient Motion Excitation)モジュールとCTI(Cross-scale Temporal Integration)モジュールを主成分とするTSI(Temporal Saliency Integration)ブロックを提案する。
SMEは、局所的な動きモデリングを通して、動きに敏感な領域を強調することを目的としている。
CTIは、それぞれ別々の1D畳み込みの群を通じて、マルチスケールの時間的モデリングを実行するように設計されている。
論文 参考訳(メタデータ) (2021-06-02T11:43:49Z) - Affective Movement Generation using Laban Effort and Shape and Hidden
Markov Models [6.181642248900806]
本稿では,1)ラベル移動解析(LMA)と2)隠れマルコフモデリングという2つの運動抽象化を用いた自動感情運動生成手法を提案する。
LMAは運動の運動的特徴と表現的特徴を抽象的に表現するための体系的なツールを提供する。
特定された動作のHMM抽象化を取得し、所望の動作経路を用いて、対象の感情を伝達する新たな動きを生成する。
評価された自動認識モデルとユーザスタディを用いて、認識可能な目標感情を持つ動きを生成するための提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2020-06-10T21:24:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。