論文の概要: GaitMixer: skeleton-based gait representation learning via wide-spectrum
multi-axial mixer
- arxiv url: http://arxiv.org/abs/2210.15491v1
- Date: Thu, 27 Oct 2022 14:30:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:39:52.279572
- Title: GaitMixer: skeleton-based gait representation learning via wide-spectrum
multi-axial mixer
- Title(参考訳): GaitMixer:ワイドスペクトル多軸ミキサーを用いた骨格に基づく歩行表現学習
- Authors: Ekkasit Pinyoanuntapong, Ayman Ali, Pu Wang, Minwoo Lee, Chen Chen
- Abstract要約: 本稿では,骨格配列データからより識別的な歩行表現を学習するための新しいネットワークモデルGaitMixerを提案する。
広く使われている歩行データベースであるCASIA-Bの実験は、GaitMixerが以前のSOTA骨格に基づく手法よりも優れていることを示した。
- 参考スコア(独自算出の注目度): 9.545915927812262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing gait recognition methods are appearance-based, which rely on
the silhouettes extracted from the video data of human walking activities. The
less-investigated skeleton-based gait recognition methods directly learn the
gait dynamics from 2D/3D human skeleton sequences, which are theoretically more
robust solutions in the presence of appearance changes caused by clothes,
hairstyles, and carrying objects. However, the performance of skeleton-based
solutions is still largely behind the appearance-based ones. This paper aims to
close such performance gap by proposing a novel network model, GaitMixer, to
learn more discriminative gait representation from skeleton sequence data. In
particular, GaitMixer follows a heterogeneous multi-axial mixer architecture,
which exploits the spatial self-attention mixer followed by the temporal
large-kernel convolution mixer to learn rich multi-frequency signals in the
gait feature maps. Experiments on the widely used gait database, CASIA-B,
demonstrate that GaitMixer outperforms the previous SOTA skeleton-based methods
by a large margin while achieving a competitive performance compared with the
representative appearance-based solutions. Code will be available at
https://github.com/exitudio/gaitmixer
- Abstract(参考訳): 既存の歩行認識法は、人間の歩行行動のビデオデータから抽出されたシルエットに依存する外観ベースである。
研究の少ない骨格に基づく歩行認識法は、2D/3Dヒト骨格配列から直接歩行力学を学習する。
しかし、スケルトンベースのソリューションのパフォーマンスは、まだ外観ベースのソリューションに大きく遅れている。
本稿では,新しいネットワークモデルであるgaitmixerを提案し,スケルトンシーケンスデータからより識別的な歩行表現を求めることにより,その性能ギャップを解消することを目的とする。
特に、GaitMixerは、空間的自己注意ミキサーと時間的大カーネル畳み込みミキサーを併用した異種多軸ミキサーアーキテクチャに従って、歩数特徴写像でリッチな多周波信号を学ぶ。
広く使われている歩行データベースであるCASIA-Bの実験では、GaitMixerは従来のSOTAの骨格法よりも大きなマージンで優れており、代表的な外観法に比べて競争性能が優れている。
コードはhttps://github.com/exitudio/gaitmixerで入手できる。
関連論文リスト
- SkeletonMAE: Graph-based Masked Autoencoder for Skeleton Sequence
Pre-training [110.55093254677638]
我々はSkeleton Sequence Learning(SSL)という,効率的なスケルトンシーケンス学習フレームワークを提案する。
本論文では,SkeletonMAEという非対称なグラフベースのエンコーダデコーダ事前学習アーキテクチャを構築する。
我々のSSLは、さまざまなデータセットにまたがってうまく一般化し、最先端の自己教師型スケルトンベースのアクション認識手法よりも優れています。
論文 参考訳(メタデータ) (2023-07-17T13:33:11Z) - One-Shot Action Recognition via Multi-Scale Spatial-Temporal Skeleton
Matching [77.6989219290789]
ワンショットスケルトン行動認識は、単一のトレーニングサンプルでスケルトン行動認識モデルを学ぶことを目的としている。
本稿では,マルチスケールな時空間特徴マッチングによる骨格行動認識を行う新しい一発骨格行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T11:52:10Z) - OpenMixup: Open Mixup Toolbox and Benchmark for Visual Representation Learning [53.57075147367114]
視覚表現学習のための最初のミックスアップ拡張とベンチマークであるOpenMixupを紹介する。
私たちは、スクラッチから18の代表的なミックスアップベースラインをトレーニングし、11の画像データセットでそれらを厳格に評価します。
また、人気のあるビジョンバックボーン、最適化戦略、分析ツールキットのコレクションを含むモジュラーバックボーンをオープンソースにしています。
論文 参考訳(メタデータ) (2022-09-11T12:46:01Z) - SimMC: Simple Masked Contrastive Learning of Skeleton Representations
for Unsupervised Person Re-Identification [63.903237777588316]
SimMC(Simple Masked Contrastive Learning)フレームワークを提案する。
具体的には、各骨格配列内の骨格の特徴を完全に活用するために、まずマスク付きプロトタイプコントラスト学習(MPC)方式を考案する。
そこで我々は,サブシーケンス間のシーケンス内パターンの整合性を捉えるために,マスク付きシーケンス内コントラスト学習(MIC)を提案する。
論文 参考訳(メタデータ) (2022-04-21T00:19:38Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - MixSiam: A Mixture-based Approach to Self-supervised Representation
Learning [33.52892899982186]
近年,ラベルのないデータから視覚表現を学習する過程が顕著に進展している。
従来のシアムネットワークに対する混合型アプローチであるMixSiamを提案する。
論文 参考訳(メタデータ) (2021-11-04T08:12:47Z) - Sign Language Recognition via Skeleton-Aware Multi-Model Ensemble [71.97020373520922]
手話は一般的に、聴覚障害者やミュート人がコミュニケーションするために使われる。
孤立手話認識(SLR)のためのGlobal Ensemble Model(GEM)を用いた新しいマルチモーダルフレームワークを提案する。
提案するSAM-SLR-v2 フレームワークは極めて有効であり,最先端の性能を高いマージンで達成している。
論文 参考訳(メタデータ) (2021-10-12T16:57:18Z) - Group-Skeleton-Based Human Action Recognition in Complex Events [15.649778891665468]
本稿では,複合イベントにおけるグループ骨格に基づく人間行動認識手法を提案する。
本手法はまず,マルチスケール空間時間グラフ畳み込みネットワーク(MS-G3D)を用いて,複数の人物から骨格の特徴を抽出する。
HiEveデータセットの結果から,本手法は他の最先端手法と比較して優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-11-26T13:19:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。