論文の概要: Human Identification at a Distance: Challenges, Methods and Results on the Competition HID 2025
- arxiv url: http://arxiv.org/abs/2602.07565v1
- Date: Sat, 07 Feb 2026 14:22:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.696062
- Title: Human Identification at a Distance: Challenges, Methods and Results on the Competition HID 2025
- Title(参考訳): 遠隔地における人間識別:HID 2025の挑戦, 方法, 結果
- Authors: Jingzhe Ma, Meng Zhang, Jianlong Yu, Kun Liu, Zunxiao Xu, Xue Cheng, Junjie Zhou, Yanfei Wang, Jiahang Li, Zepeng Wang, Kazuki Osamura, Rujie Liu, Narishige Abe, Jingjie Wang, Shunli Zhang, Haojun Xie, Jiajun Wu, Weiming Wu, Wenxiong Kang, Qingshuo Gao, Jiaming Xiong, Xianye Ben, Lei Chen, Lichen Song, Junjian Cui, Haijun Xiong, Junhao Lu, Bin Feng, Mengyuan Liu, Ji Zhou, Baoquan Zhao, Ke Xu, Yongzhen Huang, Liang Wang, Manuel J Marin-Jimenez, Md Atiqur Rahman Ahad, Shiqi Yu,
- Abstract要約: 距離における人間の識別に関する国際コンペティション(HID)は、2020年から毎年開催されている。
最高の性能の手法は94.2%の精度に達し、このデータセットに新しいベンチマークが設定された。
我々は重要な技術動向を分析し、将来の歩行認識研究の可能性について概説する。
- 参考スコア(独自算出の注目度): 70.29305328364755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human identification at a distance (HID) is challenging because traditional biometric modalities such as face and fingerprints are often difficult to acquire in real-world scenarios. Gait recognition provides a practical alternative, as it can be captured reliably at a distance. To promote progress in gait recognition and provide a fair evaluation platform, the International Competition on Human Identification at a Distance (HID) has been organized annually since 2020. Since 2023, the competition has adopted the challenging SUSTech-Competition dataset, which features substantial variations in clothing, carried objects, and view angles. No dedicated training data are provided, requiring participants to train their models using external datasets. Each year, the competition applies a different random seed to generate distinct evaluation splits, which reduces the risk of overfitting and supports a fair assessment of cross-domain generalization. While HID 2023 and HID 2024 already used this dataset, HID 2025 explicitly examined whether algorithmic advances could surpass the accuracy limits observed previously. Despite the heightened difficulty, participants achieved further improvements, and the best-performing method reached 94.2% accuracy, setting a new benchmark on this dataset. We also analyze key technical trends and outline potential directions for future research in gait recognition.
- Abstract(参考訳): 顔や指紋などの従来の生体認証は現実世界のシナリオでは入手が難しいため、距離での人間の識別は困難である。
歩行認識は、遠くで確実に捉えられるため、実用的な代替手段となる。
歩行認識の進歩を促進し、公正な評価プラットフォームを提供するため、2020年から毎年HID(International Competition on Human Identification at a Distance)が開催されている。
2023年以降、コンペティションはSUSTech-Competitionデータセットを採用した。
専用のトレーニングデータは提供されず、参加者は外部データセットを使用してモデルをトレーニングする必要がある。
毎年、コンペティションは異なるランダムシードを適用して異なる評価分割を生成し、オーバーフィットのリスクを低減し、ドメイン間の一般化の公正な評価をサポートする。
HID 2023とHID 2024は、既にこのデータセットを使用していたが、HID 2025はアルゴリズムの進歩が以前観測された精度の限界を超えることができるかどうかを明示的に検証した。
難易度が高まったにもかかわらず、参加者はさらなる改善を達成し、最高の性能の手法は94.2%の精度に達し、このデータセットに新しいベンチマークが設定された。
また、重要な技術動向を分析し、将来の歩行認識研究の可能性について概説する。
関連論文リスト
- SVC 2025: the First Multimodal Deception Detection Challenge [16.070848946361696]
SVC 2025 Multimodal Deception Detection Challengeは、音声・視覚的偽装検出におけるクロスドメインの一般化を評価するために設計された新しいベンチマークである。
我々は,より適応し,説明し,実践的に展開可能な偽造検知システムの開発を促進することを目的としている。
論文 参考訳(メタデータ) (2025-08-06T06:56:39Z) - Person Recognition at Altitude and Range: Fusion of Face, Body Shape and Gait [70.00430652562012]
FarSightは、顔認識のためのエンドツーエンドシステムで、顔、歩行、体形を横断する生体計測の手がかりを統合する。
FarSightは、4つのコアモジュールにまたがる新しいアルゴリズムを組み込んでいる。
論文 参考訳(メタデータ) (2025-05-07T17:58:25Z) - Second Edition FRCSyn Challenge at CVPR 2024: Face Recognition Challenge in the Era of Synthetic Data [104.45155847778584]
本稿では,合成データ時代における第2回顔認識チャレンジの概要について述べる。
FRCSynは、現在の技術的制限に対処するために、顔認識における合成データの使用について調査することを目的としている。
論文 参考訳(メタデータ) (2024-04-16T08:15:10Z) - SDFR: Synthetic Data for Face Recognition Competition [51.9134406629509]
大規模な顔認識データセットは、インターネットをクロールして個人の同意なしに収集し、法的、倫理的、プライバシー上の懸念を提起する。
近年、ウェブクローリングされた顔認識データセットにおける懸念を軽減するために、合成顔認識データセットの生成が提案されている。
本稿では,第18回IEEE International Conference on Automatic Face and Gesture Recognition (FG 2024)と共同で開催されているSynthetic Data for Face Recognition (SDFR)コンペティションの概要を紹介する。
SDFRコンペティションは2つのタスクに分けられ、参加者は新しい合成データセットまたは/または既存のデータセットを使用して顔認識システムを訓練することができる。
論文 参考訳(メタデータ) (2024-04-06T10:30:31Z) - FRCSyn Challenge at WACV 2024:Face Recognition Challenge in the Era of
Synthetic Data [82.5767720132393]
本稿では,WACV 2024 で組織された FRCSyn における顔認識チャレンジの概要について述べる。
これは、顔認識における合成データの利用を探求し、テクノロジーの既存の限界に対処する最初の国際的課題である。
論文 参考訳(メタデータ) (2023-11-17T12:15:40Z) - IDiff-Face: Synthetic-based Face Recognition through Fizzy
Identity-Conditioned Diffusion Models [15.217324893166579]
合成データセットは、顔認識開発のためのプライバシーに敏感な認証データに代わる有望な選択肢として登場した。
IDiff-Faceは、顔認識訓練のための現実的なアイデンティティ変動を伴う合成ID生成のための条件付き潜時拡散モデルに基づく、新しいアプローチである。
論文 参考訳(メタデータ) (2023-08-09T14:48:31Z) - FairFace Challenge at ECCV 2020: Analyzing Bias in Face Recognition [26.49981022316179]
この課題の目的は、提出されたアルゴリズムの性別と肌の色における正確さと偏りを評価することである。
データセットはバランスが取れていないため、公正な結果を示すAIベースのモデルがトレーニングされ、不均衡なデータに基づいて評価される、現実のシナリオをシミュレートする。
上位10チームの分析では、暗い肌の色を持つ女性の偽陽性率(偽陰性率)が高かった。
論文 参考訳(メタデータ) (2020-09-16T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。