論文の概要: Face Pyramid Vision Transformer
- arxiv url: http://arxiv.org/abs/2210.11974v1
- Date: Fri, 21 Oct 2022 14:03:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:19:55.421108
- Title: Face Pyramid Vision Transformer
- Title(参考訳): Face Pyramid Vision Transformer
- Authors: Khawar Islam, Muhammad Zaigham Zaheer, Arif Mahmood
- Abstract要約: FPVT (Face Pyramid Vision Transformer) は,顔認識と検証のための識別的マルチスケール顔表現を学習するために提案されている。
FPVTは7つのベンチマークデータセットで評価され、既存の10の最先端手法と比較される。
- 参考スコア(独自算出の注目度): 15.994922585636484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A novel Face Pyramid Vision Transformer (FPVT) is proposed to learn a
discriminative multi-scale facial representations for face recognition and
verification. In FPVT, Face Spatial Reduction Attention (FSRA) and
Dimensionality Reduction (FDR) layers are employed to make the feature maps
compact, thus reducing the computations. An Improved Patch Embedding (IPE)
algorithm is proposed to exploit the benefits of CNNs in ViTs (e.g., shared
weights, local context, and receptive fields) to model lower-level edges to
higher-level semantic primitives. Within FPVT framework, a Convolutional
Feed-Forward Network (CFFN) is proposed that extracts locality information to
learn low level facial information. The proposed FPVT is evaluated on seven
benchmark datasets and compared with ten existing state-of-the-art methods,
including CNNs, pure ViTs, and Convolutional ViTs. Despite fewer parameters,
FPVT has demonstrated excellent performance over the compared methods. Project
page is available at https://khawar-islam.github.io/fpvt/
- Abstract(参考訳): 顔認識と検証のための識別的多スケール顔表現を学習するために,新しい顔ピラミッドビジョントランス (FPVT) を提案する。
fpvtでは,fsra(face spatial reduction attention)およびfdr(dimensionality reduction)層を用いて特徴写像をコンパクト化し,計算量を削減する。
改良されたパッチ埋め込み(IPE)アルゴリズムは、低レベルのエッジを高レベルのセマンティックプリミティブにモデル化するために、ViTにおけるCNN(共有重み、ローカルコンテキスト、受容フィールド)の利点を利用するために提案されている。
FPVTフレームワーク内では、低レベルの顔情報を学ぶために局所性情報を抽出する畳み込みフィードフォワードネットワーク(CFFN)が提案されている。
提案したFPVTは7つのベンチマークデータセットで評価され、CNN、純粋なViT、畳み込みViTを含む10の最先端メソッドと比較される。
パラメータが少ないにもかかわらず、FPVTは比較した手法よりも優れた性能を示した。
プロジェクトページはhttps://khawar-islam.github.io/fpvt/。
関連論文リスト
- FakeFormer: Efficient Vulnerability-Driven Transformers for Generalisable Deepfake Detection [12.594436202557446]
本稿では,視覚変換器(ViT)が顔面偽造検出に最適である理由について検討する。
本稿では, 微妙な不整合情報を抽出するためにViTを拡張したFakeFormerというディープフェイク検出フレームワークを提案する。
FF++、Celeb-DF、WildDeepfake、DFD、DFDCP、DFDCなど、さまざまな有名なデータセットで実験が行われている。
論文 参考訳(メタデータ) (2024-10-29T11:36:49Z) - MoE-FFD: Mixture of Experts for Generalized and Parameter-Efficient Face Forgery Detection [54.545054873239295]
ディープフェイクは、最近、国民の間で重大な信頼問題とセキュリティ上の懸念を提起した。
ViT法はトランスの表現性を生かし,優れた検出性能を実現する。
この研究は、汎用的でパラメータ効率のよいViTベースのアプローチであるFace Forgery Detection (MoE-FFD)のためのMixture-of-Expertsモジュールを導入する。
論文 参考訳(メタデータ) (2024-04-12T13:02:08Z) - PriViT: Vision Transformers for Fast Private Inference [55.36478271911595]
Vision Transformer (ViT) アーキテクチャは、コンピュータビジョンアプリケーションのための最先端のディープモデルのバックボーンとして登場した。
ViTは、多くの非ポリノミカル操作のため、セキュアなマルチパーティプロトコルを使用したプライベート推論には適していない。
予測精度を維持しつつ,ViTの非線形性を選択的に"テイラー化"するアルゴリズムであるPriViTを提案する。
論文 参考訳(メタデータ) (2023-10-06T21:45:05Z) - Max Pooling with Vision Transformers reconciles class and shape in
weakly supervised semantic segmentation [0.0]
本研究は,CAMをベースとせず,ViT-PCM (ViT Patch-Class Mapping) と呼ばれる新しいWSSS手法を提案する。
当社のモデルは,PascalVOC 2012 $val$setで69.3%のmIoUを達成した,ベースライン擬似マスク(BPM)の最先端技術よりも優れています。
論文 参考訳(メタデータ) (2022-10-31T15:32:23Z) - Blind Face Restoration: Benchmark Datasets and a Baseline Model [63.053331687284064]
Blind Face Restoration (BFR) は、対応する低品質 (LQ) 入力から高品質 (HQ) の顔画像を構築することを目的としている。
EDFace-Celeb-1M (BFR128) と EDFace-Celeb-150K (BFR512) と呼ばれる2つのブラインドフェイス復元ベンチマークデータセットを最初に合成する。
最先端の手法は、ブラー、ノイズ、低解像度、JPEG圧縮アーティファクト、それらの組み合わせ(完全な劣化)の5つの設定でベンチマークされる。
論文 参考訳(メタデータ) (2022-06-08T06:34:24Z) - ViT-FOD: A Vision Transformer based Fine-grained Object Discriminator [21.351034332423374]
細粒度画像分類(FGVC)タスクのための新しいViTに基づく細粒度物体識別器を提案する。
ViTバックボーンの他に、APC(Attention Patch Combination)、CRF(Critical Regions Filter)、CTI(Complementary Tokens Integration)という3つの新しいコンポーネントが導入されている。
我々は広く使われているデータセットに関する包括的な実験を行い、その結果、ViT-FODが最先端のパフォーマンスを達成できることを実証した。
論文 参考訳(メタデータ) (2022-03-24T02:34:57Z) - ViTransPAD: Video Transformer using convolution and self-attention for
Face Presentation Attack Detection [15.70621878093133]
顔の提示攻撃検出(PAD)は,顔の生体認証システムに対するスプーフ攻撃を防ぐ重要な手段である。
PADに対する畳み込みニューラルネットワーク(CNN)に基づく多くの研究は、文脈を考慮せずに画像レベルのバイナリタスクとして問題を定式化している。
本研究では,フレーム内の短距離の局所的細部のみに焦点をあてるだけでなく,フレーム上の長距離依存性をキャプチャできる映像ベースの顔PAD(ViTransPAD)を提案する。
論文 参考訳(メタデータ) (2022-03-03T08:23:20Z) - Crowd Counting via Perspective-Guided Fractional-Dilation Convolution [75.36662947203192]
本稿では,PFDNetと呼ばれる新しい畳み込みニューラルネットワークを用いた群集カウント手法を提案する。
連続スケールの変動をモデル化することにより、提案したPFDNetは、異なる空間位置に対応するための適切な分数拡張カーネルを選択することができる。
これは、個々の代表スケールのみを考慮した最先端技術の柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-08T07:57:00Z) - Efficient Training of Visual Transformers with Small-Size Datasets [64.60765211331697]
進化的ネットワーク(CNN)に代わるアーキテクチャパラダイムとして、ビジュアルトランスフォーマー(VT)が登場している。
ImageNetでトレーニングされた場合、同等の精度を持つにもかかわらず、より小さなデータセットでのパフォーマンスは、大きく異なる可能性があることを示す。
本稿では,計算オーバーヘッドの少ない画像から追加情報を抽出できる自己教師型タスクを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:14:06Z) - Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction
without Convolutions [103.03973037619532]
この研究は、畳み込みのない多くの密な予測タスクに有用な単純なバックボーンネットワークを調査します。
画像分類用に特別に設計された最近提案されたトランスフォーマーモデル(例: ViT)とは異なり、Pyramid Vision Transformer(PVT)を提案する。
PVTは、高出力の解像度を達成するために画像の高密度分割をトレーニングするだけでなく、高密度の予測に重要である。
論文 参考訳(メタデータ) (2021-02-24T08:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。