論文の概要: GaitEditer: Attribute Editing for Gait Representation Learning
- arxiv url: http://arxiv.org/abs/2303.05076v1
- Date: Thu, 9 Mar 2023 07:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 15:54:46.338203
- Title: GaitEditer: Attribute Editing for Gait Representation Learning
- Title(参考訳): GaitEditer: 歩行表現学習のための属性編集
- Authors: Dingqiang Ye, Jingzhe Ma, Chao Fan, and Shiqi Yu
- Abstract要約: 歩行パターンはアプリケーションにとって有望なバイオメトリックであり、個々の協力を必要とせずに遠くから捉えることができる。
当社のGaitEditerは,ズボンや視点,年齢など,幅広い歩行属性を編集するためのオンラインモジュールとして機能する。
- 参考スコア(独自算出の注目度): 11.238750475326038
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gait pattern is a promising biometric for applications, as it can be captured
from a distance without requiring individual cooperation. Nevertheless,
existing gait datasets typically suffer from limited diversity, with indoor
datasets requiring participants to walk along a fixed route in a restricted
setting, and outdoor datasets containing only few walking sequences per
subject. Prior generative methods have attempted to mitigate these limitations
by building virtual gait datasets. They primarily focus on manipulating a
single, specific gait attribute (e.g., viewpoint or carrying), and require the
supervised data pairs for training, thus lacking the flexibility and diversity
for practical usage. In contrast, our GaitEditer can act as an online module to
edit a broad range of gait attributes, such as pants, viewpoint, and even age,
in an unsupervised manner, which current gait generative methods struggle with.
Additionally, GaitEidter also finely preserves both temporal continuity and
identity characteristics in generated gait sequences. Experiments show that
GaitEditer provides extensive knowledge for clothing-invariant and
view-invariant gait representation learning under various challenging
scenarios. The source code will be available.
- Abstract(参考訳): 歩行パターンはアプリケーションにとって有望なバイオメトリックであり、個々の協力を必要とせずに遠くから捉えることができる。
しかしながら、既存の歩行データセットは通常、限られた多様性に悩まされており、屋内データセットでは、参加者は制限された環境で一定のルートを歩かなければならない。
以前の生成メソッドでは、仮想のgaitデータセットを構築することで、これらの制限を緩和しようと試みている。
主に単一の特定の歩数属性(視点や搬送など)を操作することに重点を置いており、訓練には教師付きデータペアを必要とするため、実用的な使用には柔軟性と多様性が欠如している。
対照的に、GaitEditerはオンラインモジュールとして機能し、ズボン、視点、年齢などの幅広い歩行属性を教師なしの方法で編集することができる。
さらに、GaitEidterは生成した歩行シーケンスにおける時間的連続性とアイデンティティ特性を微細に保存する。
実験の結果,GaitEditerは,様々な難易度シナリオ下での衣服不変およびビュー不変の歩行表現学習に広範な知識を提供することがわかった。
ソースコードは利用可能になる。
関連論文リスト
- Responsible Visual Editing [53.45295657891099]
画像内の特定の概念を修正し、変更を最小化しながら、より責任を負うようにする。
有害な画像が研究に与える影響を緩和するため、人間の代わりにテディベアを用いて有害な情報を表現した透明でパブリックなデータセットAltBearを作成しました。
AltBearデータセットは、実画像に見られる有害な内容とよく一致し、一貫した実験的な評価を提供する。
論文 参考訳(メタデータ) (2024-04-08T14:56:26Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline [95.88825497452716]
歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
論文 参考訳(メタデータ) (2022-05-05T14:57:39Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Understanding person identification via gait [6.296016847062051]
運動データのさまざまな側面を研究し、歩行認識プロセスへの寄与を定量化する。
その結果,データの冗長性と相互依存性が高いため,歩行匿名化は困難なプロセスであることがわかった。
論文 参考訳(メタデータ) (2022-03-08T16:09:54Z) - RealGait: Gait Recognition for Person Re-Identification [79.67088297584762]
我々は,既存の映像人物の再識別課題からシルエットを抽出し,制約のない方法で歩く1,404人からなる新たな歩行データセットを構築した。
以上の結果から、実際の監視シナリオにおける歩行による認識は実現可能であり、その基盤となる歩行パターンが、実際にビデオの人物認識が機能する真の理由である可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-13T06:30:56Z) - Cloth-Changing Person Re-identification from A Single Image with Gait
Prediction and Regularization [65.50321170655225]
本稿では,画像レイドモデルを用いて布非依存表現を学習するための補助タスクとして,歩行認識を導入する。
画像ベースのCloth-Changing ReIDベンチマーク(例えば、LTCC、PRCC、Real28、VC-Clothes)の実験は、GI-ReIDが最先端技術に対して好適に動作することを示した。
論文 参考訳(メタデータ) (2021-03-29T12:10:50Z) - SelfGait: A Spatiotemporal Representation Learning Method for
Self-supervised Gait Recognition [24.156710529672775]
歩行認識は、歩行が距離で認識することができるユニークな生体測定機能であるため、人間の識別に重要な役割を果たします。
既存の歩行認識法は歩行系列から歩行特徴を異なる方法で学習することができるが、歩行認識の性能はラベル付きデータに苦しむ。
本研究では, 事前学習プロセスとして, 多種多様でラベルなしの歩行データを活用した自己監視歩行認識手法であるSelfGaitを提案する。
論文 参考訳(メタデータ) (2021-03-27T05:15:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。