論文の概要: CLASH: Complementary Learning with Neural Architecture Search for Gait Recognition
- arxiv url: http://arxiv.org/abs/2407.03632v1
- Date: Thu, 4 Jul 2024 04:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 19:11:48.491329
- Title: CLASH: Complementary Learning with Neural Architecture Search for Gait Recognition
- Title(参考訳): CLASH: 歩行認識のためのニューラルネットワークによる補完学習
- Authors: Huanzhang Dou, Pengyi Zhang, Yuhan Zhao, Lu Jin, Xi Li,
- Abstract要約: 本研究では,高密度時空間場 (DSTF) とニューラルアーキテクチャ検索に基づく補完学習 (NCL) フレームワークを用いた歩行パターン型歩行記述法を提案する。
具体的には、DSTFはスパース境界の表現を、ピクセルレベルでの歩行パターンに敏感な、密度の高い距離ベースのテクスチャに変換する。
最新のIn-theldデータセットでは、それぞれGait3DとGREWで、最新のシルエットベースのメソッドを16.3%、19.7%上回りました。
- 参考スコア(独自算出の注目度): 14.86306286844144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition, which aims at identifying individuals by their walking patterns, has achieved great success based on silhouette. The binary silhouette sequence encodes the walking pattern within the sparse boundary representation. Therefore, most pixels in the silhouette are under-sensitive to the walking pattern since the sparse boundary lacks dense spatial-temporal information, which is suitable to be represented with dense texture. To enhance the sensitivity to the walking pattern while maintaining the robustness of recognition, we present a Complementary Learning with neural Architecture Search (CLASH) framework, consisting of walking pattern sensitive gait descriptor named dense spatial-temporal field (DSTF) and neural architecture search based complementary learning (NCL). Specifically, DSTF transforms the representation from the sparse binary boundary into the dense distance-based texture, which is sensitive to the walking pattern at the pixel level. Further, NCL presents a task-specific search space for complementary learning, which mutually complements the sensitivity of DSTF and the robustness of the silhouette to represent the walking pattern effectively. Extensive experiments demonstrate the effectiveness of the proposed methods under both in-the-lab and in-the-wild scenarios. On CASIA-B, we achieve rank-1 accuracy of 98.8%, 96.5%, and 89.3% under three conditions. On OU-MVLP, we achieve rank-1 accuracy of 91.9%. Under the latest in-the-wild datasets, we outperform the latest silhouette-based methods by 16.3% and 19.7% on Gait3D and GREW, respectively.
- Abstract(参考訳): 歩行パターンによって個人を識別することを目的とした歩行認識はシルエットに基づいて大きな成功を収めた。
バイナリシルエットシーケンスは、スパース境界表現内のウォーキングパターンを符号化する。
したがって、シルエットのほとんどの画素は、密集したテクスチャで表すのに適した密集した時空間情報を欠いているため、ウォーキングパターンに過敏である。
認識の堅牢性を維持しながら歩行パターンに対する感度を高めるために,我々は,高密度時空間場 (DSTF) と呼ばれる歩行パターンに敏感な歩行記述子と,ニューラルアーキテクチャ検索に基づく補完学習 (NCL) からなる,ニューラルアーキテクチャサーチによる補完学習(CLASH)フレームワークを提案する。
具体的には、DSTFはスパース境界の表現を、ピクセルレベルでの歩行パターンに敏感な、密度の高い距離ベーステクスチャに変換する。
さらに、NCLは、DSTFの感度とシルエットの堅牢性を相互に補完し、効果的に歩行パターンを表すタスク固有探索空間を提示する。
広範に実験を行った結果,提案手法の有効性が示された。
CASIA-Bでは、ランク1の精度は98.8%、96.5%、89.3%である。
OU-MVLPでは、ランク1の精度は91.9%である。
最新のIn-theldデータセットでは、それぞれGait3DとGREWで、最新のシルエットベースのメソッドを16.3%、19.7%上回りました。
関連論文リスト
- It Takes Two: Accurate Gait Recognition in the Wild via Cross-granularity Alignment [72.75844404617959]
本稿では,XGait という新しい粒度アライメント歩行認識手法を提案する。
この目的を達成するために、XGaitはまず2つのバックボーンエンコーダの分岐を含み、シルエットシーケンスとパーシングシーケンスを2つの潜在空間にマッピングする。
2つの大規模な歩行データセットの総合的な実験では、ランク1の精度が80.5%、CCPGが88.3%である。
論文 参考訳(メタデータ) (2024-11-16T08:54:27Z) - TriGait: Aligning and Fusing Skeleton and Silhouette Gait Data via a
Tri-Branch Network [4.699718818019937]
歩行認識は、非侵襲性と長距離性のため、識別のための有望な生体認証技術である。
服装の変化や視点の違いなどの外的変化は、歩行認識に重大な課題をもたらす。
本稿では,新しい三脚歩行認識フレームワークTriGaitを提案する。
論文 参考訳(メタデータ) (2023-08-25T12:19:51Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - Neural Point-based Volumetric Avatar: Surface-guided Neural Points for
Efficient and Photorealistic Volumetric Head Avatar [62.87222308616711]
ニューラルポイント表現とニューラルボリュームレンダリングプロセスを採用したフルネーム(名前)を提案する。
具体的には、ニューラルポイントは高分解能UV変位マップを介してターゲット表現の表面を戦略的に拘束する。
設計上は,アバターをアニメーションする際の正確な表現制御を確保しつつ,地形的に変化する領域や細い構造を扱えるように設計されている。
論文 参考訳(メタデータ) (2023-07-11T03:40:10Z) - UncLe-SLAM: Uncertainty Learning for Dense Neural SLAM [60.575435353047304]
我々は、高密度ニューラルネットワークの同時局所化とマッピング(SLAM)のための不確実性学習フレームワークを提案する。
本稿では,2次元入力データのみから自己教師付きで学習可能なセンサ不確実性推定のためのオンラインフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T16:26:25Z) - DyGait: Exploiting Dynamic Representations for High-performance Gait
Recognition [35.642868929840034]
歩行認識は、歩行パターンを通して人間の身元を認識する生体計測技術である。
我々は動的特徴の抽出に焦点をあて,DyGaitという新しい高性能なフレームワークを提案する。
我々のネットワークは、GREWデータセットで71.4%、Gait3Dデータセットで66.3%、CAIA-Bデータセットで98.4%、OU-Mデータセットで98.3%の平均ランク1の精度を達成した。
論文 参考訳(メタデータ) (2023-03-27T07:36:47Z) - Leveraging the Third Dimension in Contrastive Learning [88.17394309208925]
SSL(Self-Supervised Learning)メソッドは、ラベルのないデータでダウンストリームタスクに有用な堅牢な表現を学習する。
これらの拡張は、生物学的ビジョンが没入的な3次元、時間的に連続した環境で起こるという事実を無視している。
SSLフレームワークにディープシグナルを組み込むための2つの異なるアプローチについて検討する。
論文 参考訳(メタデータ) (2023-01-27T15:45:03Z) - RGB-D based Stair Detection using Deep Learning for Autonomous Stair
Climbing [6.362951673024623]
本稿では,RGBマップと深度マップの両方の入力を持つニューラルネットワークアーキテクチャを提案する。
具体的には,RGBマップと深度マップの相補関係をネットワークが学習できるように,選択モジュールを設計する。
提案手法は,従来の最先端深層学習法と比較して精度の向上とリコールが可能であることを示す。
論文 参考訳(メタデータ) (2022-12-02T11:22:52Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Combining the Silhouette and Skeleton Data for Gait Recognition [13.345465199699]
2つの主要な歩行認識作品は外観ベースとモデルベースであり、シルエットと骨格からそれぞれ特徴を抽出する。
本稿では, シルエットを入力とするCNN系分岐と, 骨格を入力とするGCN系分岐を提案する。
GCNベースの分岐における歩行表現を改善するため、マルチスケールグラフ畳み込みを統合する完全連結グラフ畳み込み演算子を提案する。
論文 参考訳(メタデータ) (2022-02-22T03:21:51Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。