論文の概要: Reducing Training Demands for 3D Gait Recognition with Deep Koopman
Operator Constraints
- arxiv url: http://arxiv.org/abs/2308.07468v1
- Date: Mon, 14 Aug 2023 21:39:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 14:39:51.944372
- Title: Reducing Training Demands for 3D Gait Recognition with Deep Koopman
Operator Constraints
- Title(参考訳): 深いkoopman演算子制約による3次元歩行認識のためのトレーニング要求の低減
- Authors: Cole Hill, Mauricio Pamplona Segundo, Sudeep Sarkar
- Abstract要約: 我々は、周期的な歩行の性質に対して教師なしの運動規則化を提供する、Koopman演算子理論に基づく新しい線形力学系(LDS)モジュールと損失を導入する。
また、3Dモデリング手法は他の3D歩行法よりも、通常のバッグキャリングや衣服の変化条件下での視点変化を克服する方が優れていることも示している。
- 参考スコア(独自算出の注目度): 8.382355998881879
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning research has made many biometric recognition solution viable,
but it requires vast training data to achieve real-world generalization. Unlike
other biometric traits, such as face and ear, gait samples cannot be easily
crawled from the web to form massive unconstrained datasets. As the human body
has been extensively studied for different digital applications, one can rely
on prior shape knowledge to overcome data scarcity. This work follows the
recent trend of fitting a 3D deformable body model into gait videos using deep
neural networks to obtain disentangled shape and pose representations for each
frame. To enforce temporal consistency in the network, we introduce a new
Linear Dynamical Systems (LDS) module and loss based on Koopman operator
theory, which provides an unsupervised motion regularization for the periodic
nature of gait, as well as a predictive capacity for extending gait sequences.
We compare LDS to the traditional adversarial training approach and use the USF
HumanID and CASIA-B datasets to show that LDS can obtain better accuracy with
less training data. Finally, we also show that our 3D modeling approach is much
better than other 3D gait approaches in overcoming viewpoint variation under
normal, bag-carrying and clothing change conditions.
- Abstract(参考訳): ディープラーニングの研究により、多くの生体認証ソリューションが実現可能になったが、現実世界の一般化を達成するには膨大なトレーニングデータが必要である。
顔や耳などの他の生体特性とは異なり、歩行サンプルはウェブから簡単にクロールして膨大な制約のないデータセットを形成することはできない。
人体は様々なデジタル応用のために広範囲に研究されているため、データの不足を克服するために事前形状の知識に頼ることができる。
この研究は、ディープニューラルネットワークを用いた3次元変形可能なボディモデルを歩行ビデオに適合させ、各フレームの絡み合い形状とポーズ表現を得る最近のトレンドに従っている。
ネットワークの時間的一貫性を強制するために,新しい線形力学系 (lds) モジュールとクープマン作用素理論に基づく損失を導入し,歩行の周期的性質に対する教師なし運動正規化と,歩行系列の拡張のための予測能力を提供する。
ldsを従来の敵対的トレーニング手法と比較し,usf humanid と casia-b データセットを用いて,より少ないトレーニングデータで精度が得られることを示す。
また,私たちの3dモデリング手法は他の3d歩行法よりも,正常,バッグキャリー,衣料品交換条件下での視点変動を克服する上ではるかに優れていることも示しています。
関連論文リスト
- Neural Localizer Fields for Continuous 3D Human Pose and Shape Estimation [32.30055363306321]
本研究では、異なる人間のポーズや形状に関連したタスクやデータセットをシームレスに統一するパラダイムを提案する。
我々の定式化は、人間の容積の任意の点を問合せし、推定位置を3Dで取得することに集中している。
論文 参考訳(メタデータ) (2024-07-10T10:44:18Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - A New Benchmark: On the Utility of Synthetic Data with Blender for Bare
Supervised Learning and Downstream Domain Adaptation [42.2398858786125]
コンピュータビジョンにおけるディープラーニングは、大規模ラベル付きトレーニングデータの価格で大きな成功を収めた。
制御不能なデータ収集プロセスは、望ましくない重複が存在する可能性のある非IIDトレーニングおよびテストデータを生成する。
これを回避するために、ドメインランダム化による3Dレンダリングによる合成データを生成する方法がある。
論文 参考訳(メタデータ) (2023-03-16T09:03:52Z) - Recovering 3D Human Mesh from Monocular Images: A Survey [49.00136388529404]
単眼画像から人間のポーズと形状を推定することは、コンピュータビジョンにおける長年の問題である。
本調査は, 単分子型3次元メッシュ回収の課題に焦点を当てた。
論文 参考訳(メタデータ) (2022-03-03T18:56:08Z) - Advancing 3D Medical Image Analysis with Variable Dimension Transform
based Supervised 3D Pre-training [45.90045513731704]
本稿では,革新的でシンプルな3Dネットワーク事前学習フレームワークを再考する。
再設計された3Dネットワークアーキテクチャにより、データ不足の問題に対処するために、修正された自然画像が使用される。
4つのベンチマークデータセットに関する総合的な実験により、提案した事前学習モデルが収束を効果的に加速できることが示されている。
論文 参考訳(メタデータ) (2022-01-05T03:11:21Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - Cascaded deep monocular 3D human pose estimation with evolutionary
training data [76.3478675752847]
深層表現学習は単眼の3次元ポーズ推定において顕著な精度を達成した。
本稿では,大量のトレーニングデータに対してスケーラブルな新しいデータ拡張手法を提案する。
本手法は,先行知識に触発された階層的人体表現と合成に基づいて,未知の3次元人体骨格を合成する。
論文 参考訳(メタデータ) (2020-06-14T03:09:52Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。