論文の概要: Learning Unified Representations for Multi-Resolution Face Recognition
- arxiv url: http://arxiv.org/abs/2310.09563v1
- Date: Sat, 14 Oct 2023 11:26:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 19:43:10.281280
- Title: Learning Unified Representations for Multi-Resolution Face Recognition
- Title(参考訳): マルチレゾリューション顔認識のための統一表現の学習
- Authors: Hulingxiao He, Wu Yuan, Yidian Huang, Shilong Zhao, Wen Yuan, Hanqing
Li
- Abstract要約: Branch-to-Trunk Network (BTNet) はマルチ解像度顔認識のための表現学習手法である。
本実験は,マルチレゾリューション・アイデンティティマッチングと特徴集約の両面において,顔認識ベンチマークにおいて高い性能を示す。
- 参考スコア(独自算出の注目度): 0.7378853859331619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose Branch-to-Trunk network (BTNet), a representation
learning method for multi-resolution face recognition. It consists of a trunk
network (TNet), namely a unified encoder, and multiple branch networks (BNets),
namely resolution adapters. As per the input, a resolution-specific BNet is
used and the output are implanted as feature maps in the feature pyramid of
TNet, at a layer with the same resolution. The discriminability of tiny faces
is significantly improved, as the interpolation error introduced by rescaling,
especially up-sampling, is mitigated on the inputs. With branch distillation
and backward-compatible training, BTNet transfers discriminative
high-resolution information to multiple branches while guaranteeing
representation compatibility. Our experiments demonstrate strong performance on
face recognition benchmarks, both for multi-resolution identity matching and
feature aggregation, with much less computation amount and parameter storage.
We establish new state-of-the-art on the challenging QMUL-SurvFace 1: N face
identification task. Our code is available at
https://github.com/StevenSmith2000/BTNet.
- Abstract(参考訳): 本研究では,マルチレゾリューション顔認識のための表現学習手法であるbranch-to-trunk network (btnet)を提案する。
トランクネットワーク(tnet)、すなわち統一エンコーダ(unified encoder)、および複数のブランチネットワーク(bnets)、すなわちレゾリューションアダプタで構成される。
入力に従って、解像度固有のBNetを使用し、出力は同じ解像度の層にTNetの機能ピラミッドに特徴マップとして埋め込む。
再スケーリング、特にアップサンプリングによって生じる補間誤差が入力に対して緩和されるため、小さな顔の識別性が大幅に向上する。
分枝蒸留と後方互換性トレーニングにより、BTNetは、表現互換性を確保しつつ、差別的な高解像度情報を複数の分枝に転送する。
本実験は,マルチレゾリューションIDマッチングと特徴集約の両面において,高い性能を示し,計算量やパラメータ記憶量を大幅に削減した。
難解なqmul-survface 1: n face identificationタスクについて,新たな最先端技術を確立する。
私たちのコードはhttps://github.com/StevenSmith2000/BTNet.comから入手可能です。
関連論文リスト
- W-Net: A Facial Feature-Guided Face Super-Resolution Network [8.037821981254389]
Face Super-Resolutionは、高解像度 (HR) の顔画像を低解像度 (LR) の顔画像から復元することを目的としている。
既存手法は, 再建効率が低く, 事前情報の利用が不十分であるため, 理想的ではない。
本稿では,この課題に対処するため,W-Netと呼ばれる新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-02T09:05:40Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - CTCNet: A CNN-Transformer Cooperation Network for Face Image
Super-Resolution [64.06360660979138]
超解像課題に対する効率的なCNN-Transformer Cooperation Network (CTCNet)を提案する。
本稿ではまず,FSAUとTransformerブロックから構成されるLGCM(Local-Global Feature Cooperation Module)を考案した。
次に、エンコードされた機能を強化するために、効率的な機能リファインメントモジュール(FRM)を設計する。
論文 参考訳(メタデータ) (2022-04-19T06:38:29Z) - Deep High-Resolution Representation Learning for Cross-Resolution Person
Re-identification [22.104449922937338]
人物再識別(re-ID)は、異なるカメラから同一人物像と同一人物像をマッチングする問題に取り組む。
この問題を解決するために,PS-HRNet(Deep High-Resolution Pseudo-Siamese Framework)を提案する。
提案したPS-HRNetは,MLR-Market-1501,MLR-CUHK03,MLR-VIPeR,MLR-DukeMTMC-reID,CAVIARデータセット上でRan-1で3.4%,6.2%,2.5%,1.1%,4.2%の改善を行った。
論文 参考訳(メタデータ) (2021-05-25T07:45:38Z) - Hierarchical Deep CNN Feature Set-Based Representation Learning for
Robust Cross-Resolution Face Recognition [59.29808528182607]
クロスリゾリューション顔認識(CRFR)は、インテリジェントな監視およびバイオメトリックフォレンジックにおいて重要である。
既存の浅層学習と深層学習に基づく手法は、HR-LR対を共同特徴空間にマッピングすることに焦点を当てている。
本研究では,多レベル深層畳み込みニューラルネットワーク(CNN)の機能を完全に活用し,堅牢なCRFRを実現することを目的とする。
論文 参考訳(メタデータ) (2021-03-25T14:03:42Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z) - Resolution Switchable Networks for Runtime Efficient Image Recognition [46.09537029831355]
本稿では,推論時に画像解像度を切り替えることのできる,単一の畳み込みニューラルネットワークを訓練する一般的な手法を提案する。
提案手法でトレーニングしたネットワークは、Resolvation Switchable Networks (RS-Nets) と呼ばれる。
論文 参考訳(メタデータ) (2020-07-19T02:12:59Z) - HRDNet: High-resolution Detection Network for Small Objects [10.802856121451404]
小物体検出は、小物体に詳細な情報が含まれておらず、深層ネットワークで消える可能性があるため、困難である。
本稿では,高分解能画像の利点を新たな問題を生じさせないよう,高分解能画像検出ネットワーク(HRDNet)を提案する。
本稿では,MD-IPN(Multi-Depth Image Pyramid Network)とMS-FPN(Multi-Scale Feature Pyramid Network)を提案する。
論文 参考訳(メタデータ) (2020-06-13T10:25:35Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。