論文の概要: HybridGait: A Benchmark for Spatial-Temporal Cloth-Changing Gait
Recognition with Hybrid Explorations
- arxiv url: http://arxiv.org/abs/2401.00271v1
- Date: Sat, 30 Dec 2023 16:12:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 18:22:34.186505
- Title: HybridGait: A Benchmark for Spatial-Temporal Cloth-Changing Gait
Recognition with Hybrid Explorations
- Title(参考訳): HybridGait: ハイブリッド探索による空間的時間的衣服交換歩行認識のためのベンチマーク
- Authors: Yilan Dong, Chunlin Yu, Ruiyang Ha, Ye Shi, Yuexin Ma, Lan Xu, Yanwei
Fu, Jingya Wang
- Abstract要約: そこで本研究では,第1世代CCGaitベンチマークを提案する。
我々は3次元メッシュの時間的ダイナミクスと投影された2次元情報の両方を利用する。
私たちのコントリビューションは2つあります: 拡張された空間にわたる現実的な外見の変化をキャプチャする、挑戦的なベンチマークCCGaitを提供しています。
- 参考スコア(独自算出の注目度): 66.5809637340079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing gait recognition benchmarks mostly include minor clothing variations
in the laboratory environments, but lack persistent changes in appearance over
time and space. In this paper, we propose the first in-the-wild benchmark
CCGait for cloth-changing gait recognition, which incorporates diverse clothing
changes, indoor and outdoor scenes, and multi-modal statistics over 92 days. To
further address the coupling effect of clothing and viewpoint variations, we
propose a hybrid approach HybridGait that exploits both temporal dynamics and
the projected 2D information of 3D human meshes. Specifically, we introduce a
Canonical Alignment Spatial-Temporal Transformer (CA-STT) module to encode
human joint position-aware features, and fully exploit 3D dense priors via a
Silhouette-guided Deformation with 3D-2D Appearance Projection (SilD) strategy.
Our contributions are twofold: we provide a challenging benchmark CCGait that
captures realistic appearance changes across an expanded and space, and we
propose a hybrid framework HybridGait that outperforms prior works on CCGait
and Gait3D benchmarks. Our project page is available at
https://github.com/HCVLab/HybridGait.
- Abstract(参考訳): 既存の歩行認識ベンチマークには、主に実験室環境の小さな衣服のバリエーションが含まれているが、時間や空間によって外観が変化しない。
本稿では,衣料品の変化,室内と屋外のシーン,および92日間にわたるマルチモーダル統計を取り入れた,布質変化歩行認識のための第1世代CCGaitベンチマークを提案する。
衣服の結合効果と視点の変化にさらに対処するため,3次元メッシュの時間的ダイナミクスと投影された2次元情報の両方を活用するハイブリッドアプローチであるHybridGaitを提案する。
具体的には、人間の関節位置認識特徴を符号化するCanonical Alignment Space-Temporal Transformer (CA-STT) モジュールを導入し、Silhouette-Guided deformation with 3D-2D Outearance Projection (SilD) 戦略を用いて、3D高密度プリミティブをフル活用する。
我々は、拡張された空間にわたる現実的な外観変化をキャプチャする、挑戦的なベンチマークCCGaitを提供し、CCGaitとGait3Dベンチマークの以前の成果を上回るハイブリットフレームワークHybridGaitを提案する。
プロジェクトのページはhttps://github.com/hcvlab/hybridgaitで閲覧できます。
関連論文リスト
- GEAL: Generalizable 3D Affordance Learning with Cross-Modal Consistency [50.11520458252128]
既存の3Dアベイランス学習手法は、注釈付きデータに制限があるため、一般化と堅牢性に苦慮している。
本稿では,大規模事前学習型2Dモデルを活用することで,3次元アベイランス学習の一般化と堅牢性を高めるための新しいフレームワークであるGEALを提案する。
GEALは、既存のメソッドと、新しいオブジェクトカテゴリ、および破損したデータにおいて、一貫して優れています。
論文 参考訳(メタデータ) (2024-12-12T17:59:03Z) - HybridGS: Decoupling Transients and Statics with 2D and 3D Gaussian Splatting [47.67153284714988]
画像ごとの過渡的対象に対して2次元ガウスアンを用いて,ハイブリッドGSと呼ばれる新しいハイブリッド表現を提案する。
また、ロバストなトレーニングと高品質なビュー合成を実現するために、単純かつ効果的なマルチステージトレーニング戦略を提案する。
ベンチマークデータセットを用いた実験は、室内および屋外の両方のシーンにおいて、新しいビュー合成の最先端性能を示す。
論文 参考訳(メタデータ) (2024-12-05T03:20:35Z) - Graph and Skipped Transformer: Exploiting Spatial and Temporal Modeling Capacities for Efficient 3D Human Pose Estimation [36.93661496405653]
我々は、簡潔なグラフとSkipped Transformerアーキテクチャを用いて、Transformer-temporal情報を活用するためのグローバルなアプローチを採っている。
具体的には、3Dポーズの段階では、粗粒の体部が展開され、完全なデータ駆動適応モデルが構築される。
実験はHuman3.6M、MPI-INF-3DHP、Human-Evaベンチマークで行われた。
論文 参考訳(メタデータ) (2024-07-03T10:42:09Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Geometry-Biased Transformer for Robust Multi-View 3D Human Pose
Reconstruction [3.069335774032178]
マルチビュー2次元ポーズシーケンスから3次元ポーズを推定するエンコーダ・デコーダ変換アーキテクチャを提案する。
我々は、Human3.6M、CMU Panoptic、Occlusion-Personsの3つのベンチマーク公開データセットで実験を行った。
論文 参考訳(メタデータ) (2023-12-28T16:30:05Z) - Towards a Unified Transformer-based Framework for Scene Graph Generation
and Human-object Interaction Detection [116.21529970404653]
本稿では,Transformerアーキテクチャに基づく一段階統一モデルであるSG2HOI+を紹介する。
本手法では,SGGとHOI検出のタスクをシームレスに統一する2つの対話型階層変換器を用いる。
提案手法は最先端のHOI法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-03T07:25:57Z) - MixSTE: Seq2seq Mixed Spatio-Temporal Encoder for 3D Human Pose
Estimation in Video [75.23812405203778]
近年, 学習時間相関のため, 全フレームのボディジョイントを世界規模で考慮し, 2次元キーポイントシーケンスから3次元人間のポーズを推定する手法が提案されている。
本研究では,各関節の時間的動きを別々にモデル化する時間的変圧器ブロックと,関節間空間相関を有する変圧器ブロックを有するミキシングミキシングを提案する。
さらに、ネットワーク出力は、中央フレームから入力ビデオの全フレームに拡張され、入力と出力のベンチマーク間のコヒーレンスが改善される。
論文 参考訳(メタデータ) (2022-03-02T04:20:59Z) - JointsGait:A model-based Gait Recognition Method based on Gait Graph
Convolutional Networks and Joints Relationship Pyramid Mapping [6.851535012702575]
本稿では2次元関節を用いた歩行認識について検討する。
JointsGaitは2次元の人体関節から歩行情報を抽出する。
論文 参考訳(メタデータ) (2020-04-27T08:30:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。