論文の概要: On Denoising Walking Videos for Gait Recognition
- arxiv url: http://arxiv.org/abs/2505.18582v1
- Date: Sat, 24 May 2025 08:17:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.520067
- Title: On Denoising Walking Videos for Gait Recognition
- Title(参考訳): 歩行認識のための歩行映像のDenoisingについて
- Authors: Dongyang Jin, Chao Fan, Jingzhe Ma, Jingkai Zhou, Weihua Chen, Shiqi Yu,
- Abstract要約: 本稿では,新しい歩行認知手法であるDenoisingGaitを提案する。
創造できないもの、理解できないもの」という哲学にインスパイアされた私たちは、生成的拡散モデルに目を向ける。
DenoisingGaitは、ほとんどの場合、内部およびクロスドメイン評価において、新しいSoTAパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 10.905636016507994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To capture individual gait patterns, excluding identity-irrelevant cues in walking videos, such as clothing texture and color, remains a persistent challenge for vision-based gait recognition. Traditional silhouette- and pose-based methods, though theoretically effective at removing such distractions, often fall short of high accuracy due to their sparse and less informative inputs. Emerging end-to-end methods address this by directly denoising RGB videos using human priors. Building on this trend, we propose DenoisingGait, a novel gait denoising method. Inspired by the philosophy that "what I cannot create, I do not understand", we turn to generative diffusion models, uncovering how they partially filter out irrelevant factors for gait understanding. Additionally, we introduce a geometry-driven Feature Matching module, which, combined with background removal via human silhouettes, condenses the multi-channel diffusion features at each foreground pixel into a two-channel direction vector. Specifically, the proposed within- and cross-frame matching respectively capture the local vectorized structures of gait appearance and motion, producing a novel flow-like gait representation termed Gait Feature Field, which further reduces residual noise in diffusion features. Experiments on the CCPG, CASIA-B*, and SUSTech1K datasets demonstrate that DenoisingGait achieves a new SoTA performance in most cases for both within- and cross-domain evaluations. Code is available at https://github.com/ShiqiYu/OpenGait.
- Abstract(参考訳): 衣服のテクスチャや色などのウォーキングビデオにおける身元不明の手がかりを除いて、個々の歩行パターンを捉えることは、視覚に基づく歩行認識において永続的な課題である。
従来のシルエットとポーズに基づく手法は、理論的にはそのような注意をなくすのに効果的であるが、しばしばその希薄さと情報の少ない入力のために高い精度に欠ける。
エンド・ツー・エンドの手法は、人間の優先順位を使って直接RGBビデオをデノベートすることでこの問題に対処する。
この傾向に基づいて,新しい歩行認知手法であるDenoisingGaitを提案する。
創出できないもの、理解できないもの」という哲学にインスパイアされた私たちは、生成的拡散モデルに目を向け、それらが歩行理解の無関係な要素を部分的にフィルタリングする方法を明らかにした。
さらに,人間のシルエットによる背景除去と組み合わせて,各前景画素の多重チャネル拡散特性を2チャネル方向ベクトルに凝縮する形状駆動型特徴マッチングモジュールを導入する。
特に,提案した内部およびクロスフレームマッチングは,それぞれ歩行外観と運動の局所ベクトル化構造を捕捉し,拡散特性の残留雑音を低減させる,新しい流れ様歩行表現であるゲイト特徴場を生成する。
CCPG、CASIA-B*、SUSTech1Kデータセットの実験は、DenoisingGaitがドメイン内およびクロスドメイン評価の両方において、ほとんどのケースで新しいSoTAパフォーマンスを達成することを示した。
コードはhttps://github.com/ShiqiYu/OpenGait.comで入手できる。
関連論文リスト
- Efficient and Robust Remote Sensing Image Denoising Using Randomized Approximation of Geodesics' Gramian on the Manifold Underlying the Patch Space [2.56711111236449]
トレーニングサンプルの追加を必要としない頑健なリモートセンシング画像復調手法を提案する。
この手法は、各色チャネルに独自の強調を課し、3つの分極チャネルをマージして最終画像を生成する。
論文 参考訳(メタデータ) (2025-04-15T02:46:05Z) - Denoising as Adaptation: Noise-Space Domain Adaptation for Image Restoration [64.84134880709625]
拡散モデルを用いて,雑音空間を介して領域適応を行うことが可能であることを示す。
特に、補助的な条件入力が多段階の復調過程にどのように影響するかというユニークな性質を活用することにより、有意義な拡散損失を導出する。
拡散モデルにおけるチャネルシャッフル層や残留スワッピング型コントラスト学習などの重要な戦略を提案する。
論文 参考訳(メタデータ) (2024-06-26T17:40:30Z) - Perception-Oriented Video Frame Interpolation via Asymmetric Blending [20.0024308216849]
ビデオフレーム補間(VFI)の従来の手法は、特にぼやけやゴースト効果の顕在化といった問題に直面している。
本稿では,これらの課題を軽減するためにPerVFI(Perception-oriented Video Frame Interpolation)を提案する。
実験により,PerVFIの優位性が検証され,既存の手法に比べて知覚品質が有意に向上した。
論文 参考訳(メタデータ) (2024-04-10T02:40:17Z) - VideoFusion: Decomposed Diffusion Models for High-Quality Video
Generation [88.49030739715701]
本研究は, フレームごとのノイズを, 全フレーム間で共有されるベースノイズ, 時間軸に沿って変化する残雑音に分解することで, 拡散過程を分解する。
様々なデータセットの実験により,ビデオフュージョンと呼ばれる我々の手法が,高品質なビデオ生成において,GANベースと拡散ベースの両方の選択肢を上回ることが確認された。
論文 参考訳(メタデータ) (2023-03-15T02:16:39Z) - Learning Spatial and Spatio-Temporal Pixel Aggregations for Image and
Video Denoising [104.59305271099967]
ピクセル集計ネットワークを提示し、画像デノイジングのためのピクセルサンプリングと平均戦略を学びます。
時間空間にまたがるサンプル画素をビデオデノナイズするための画素集約ネットワークを開発した。
本手法は,動的シーンにおける大きな動きに起因する誤認問題を解決することができる。
論文 参考訳(メタデータ) (2021-01-26T13:00:46Z) - Learning Model-Blind Temporal Denoisers without Ground Truths [46.778450578529814]
合成データで訓練されたデノイザーは、未知のノイズの多様性に対処できないことが多い。
従来の画像ベース手法は、ビデオデノイザに直接適用した場合、ノイズが過度に収まる。
本稿では,これらの課題に対処する上で有効な,ビデオ・デノベーション・ネットワークの汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-07T07:19:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。