論文の概要: Whole-body Detection, Recognition and Identification at Altitude and
Range
- arxiv url: http://arxiv.org/abs/2311.05725v1
- Date: Thu, 9 Nov 2023 20:20:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 16:50:03.761116
- Title: Whole-body Detection, Recognition and Identification at Altitude and
Range
- Title(参考訳): 高度・範囲における全身検出・認識・識別
- Authors: Siyuan Huang, Ram Prabhakar Kathirvel, Chun Pong Lau, Rama Chellappa
- Abstract要約: 多様なデータセットに基づいて評価したエンドツーエンドシステムを提案する。
我々のアプローチでは、一般的な画像データセットで検出器を事前トレーニングし、BRIARの複雑なビデオや画像でそれを微調整する。
屋内・屋外・航空シナリオにおける様々な範囲や角度の異なる条件下で徹底的な評価を行う。
- 参考スコア(独自算出の注目度): 57.445372305202405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the challenging task of whole-body biometric
detection, recognition, and identification at distances of up to 500m and large
pitch angles of up to 50 degree. We propose an end-to-end system evaluated on
diverse datasets, including the challenging Biometric Recognition and
Identification at Range (BRIAR) dataset. Our approach involves pre-training the
detector on common image datasets and fine-tuning it on BRIAR's complex videos
and images. After detection, we extract body images and employ a feature
extractor for recognition. We conduct thorough evaluations under various
conditions, such as different ranges and angles in indoor, outdoor, and aerial
scenarios. Our method achieves an average F1 score of 98.29% at IoU = 0.7 and
demonstrates strong performance in recognition accuracy and true acceptance
rate at low false acceptance rates compared to existing models. On a test set
of 100 subjects with 444 distractors, our model achieves a rank-20 recognition
accuracy of 75.13% and a TAR@1%FAR of 54.09%.
- Abstract(参考訳): 本稿では,最大500mの距離と最大50度の大きなピッチ角において,生体認証,認識,識別を行う上での課題に対処する。
本稿では,BRIAR(Biometric Recognition and Identification at Range)データセットを含む,多様なデータセットを対象としたエンドツーエンドシステムを提案する。
我々のアプローチでは、一般的な画像データセットで検出器を事前トレーニングし、briarの複雑なビデオや画像に微調整する。
検出後,体像を抽出し,特徴抽出器を用いて認識を行う。
室内, 屋外, 空中のシナリオにおいて, 異なる範囲, 角度など様々な条件下で徹底的な評価を行う。
提案手法は,IoU = 0.7で平均98.29%のF1スコアを達成し,従来のモデルと比較して認識精度と真受け入れ率の低い偽受け入れ率で高い性能を示した。
被験者100名, 444名を対象に, ランク20の認識精度75.13%, tar@1%far54.09%を達成した。
関連論文リスト
- DailyDVS-200: A Comprehensive Benchmark Dataset for Event-Based Action Recognition [51.96660522869841]
DailyDVS-200は、イベントベースのアクション認識コミュニティに適したベンチマークデータセットである。
実世界のシナリオで200のアクションカテゴリをカバーし、47人の参加者によって記録され、22,000以上のイベントシーケンスで構成されている。
DailyDVS-200には14の属性がアノテートされており、記録されたアクションの詳細なキャラクタリゼーションが保証されている。
論文 参考訳(メタデータ) (2024-07-06T15:25:10Z) - Detecting and recognizing characters in Greek papyri with YOLOv8, DeiT
and SimCLR [9.7902367664742]
本稿は、ギリシャ文字の検出・認識に関するICDAR 2023コンペティションへの参加について論じる。
我々は、YOLOv8モデルのアンサンブルを用いて個々の文字を検出し、分類し、2つの異なるアプローチを用いて文字予測を精査した。
平均精度(mAP)は51.4%であり,mAPは42.2%,検出精度(mAP)は51.4%であった。
論文 参考訳(メタデータ) (2024-01-23T06:08:00Z) - One-Shot Learning for Periocular Recognition: Exploring the Effect of
Domain Adaptation and Data Bias on Deep Representations [59.17685450892182]
広範に使用されているCNNモデルにおける深部表現の挙動をワンショット近視認識のための極端データ不足下で検討する。
我々は、バイオメトリックデータセットで訓練されたネットワークを数百万の画像で活用し、最先端の結果を改善した。
SIFTのような従来のアルゴリズムは、限られたデータでCNNより優れている。
論文 参考訳(メタデータ) (2023-07-11T09:10:16Z) - Improving CNN-based Person Re-identification using score Normalization [2.462953128215087]
本稿では,CNNに基づく特徴抽出手法とXQDA(Cross-view Quadratic Discriminant Analysis)を組み合わせたPRe-IDを提案する。
提案手法は、VIPeR、GRID、CUHK01、VIPeR、PRID450Sの4つの挑戦的データセットで検証される。
論文 参考訳(メタデータ) (2023-07-01T18:12:27Z) - FarSight: A Physics-Driven Whole-Body Biometric System at Large Distance
and Altitude [67.55994773068191]
本稿ではFarSightの設計・開発・評価について述べる。
FarSightは、全身(顔、歩行、身体形状の融合)の生体認証のために設計された革新的なソフトウェアシステムである。
我々は、新たに取得したIARPAバイオメトリック認識とAltitude and Rangeデータセットによる同定を用いて、FarSightの有効性を検証した。
論文 参考訳(メタデータ) (2023-06-29T16:14:27Z) - End-to-End Zero-Shot HOI Detection via Vision and Language Knowledge
Distillation [86.41437210485932]
我々は、ゼロショットHOI検出を前進させ、同時に見えないHOIと見えないHOIの両方を検出することを目指している。
本稿では,視覚言語による知識蒸留によるエンドツーエンドのゼロショットHOI検出フレームワークを提案する。
本手法は, 従来のSOTAを8.92%, 全体の10.18%で上回っている。
論文 参考訳(メタデータ) (2022-04-01T07:27:19Z) - Deep learning for identification and face, gender, expression
recognition under constraints [1.2647816797166165]
深層畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)は、ベール付き顔画像から特徴を抽出するために用いられる。
本研究の目的は, 深層学習に基づく自動計算機システムを用いて, 人物だけでなく, 性別, 年齢, 表情の認識や, 笑顔などの表情の認識を行う能力をテストすることである。
論文 参考訳(メタデータ) (2021-11-02T22:45:09Z) - End-to-End Semi-Supervised Object Detection with Soft Teacher [63.26266730447914]
本稿では,従来の複雑な多段階法とは対照的に,終端から終端までの半教師付き物体検出手法を提案する。
提案手法は, 種々のラベル付け比において, 従来手法よりも大きなマージンで性能を向上する。
最先端のSwin Transformerベースの物体検出器では、検出精度を+1.5 mAPで大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-06-16T17:59:30Z) - Neighbourhood-guided Feature Reconstruction for Occluded Person
Re-Identification [45.704612531562404]
本研究では,周辺情報をギャラリーのイメージセットでフル活用し,埋蔵部品の特徴表現の再構築を提案する。
大規模なOccluded-DukeMTMCベンチマークでは,64.2%のmAPと67.6%のランク1精度を達成した。
論文 参考訳(メタデータ) (2021-05-16T03:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。