論文の概要: Latent Distribution Adjusting for Face Anti-Spoofing
- arxiv url: http://arxiv.org/abs/2305.09285v1
- Date: Tue, 16 May 2023 08:43:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 15:34:59.953475
- Title: Latent Distribution Adjusting for Face Anti-Spoofing
- Title(参考訳): フェイスアンチスプーフィングのための潜伏分布調整
- Authors: Qinghong Sun, Zhenfei Yin, Yichao Wu, Yuanhan Zhang, Jing Shao
- Abstract要約: フェース・アンチ・スプーフィング(FAS)モデルの堅牢性を改善するため,LDA(Latent Distribution Adjusting)と呼ばれる統一フレームワークを提案する。
クラス内コンパクト性とクラス間不一致性を高めるため,プロトタイプ学習のための分布制約を提供するためのマージンベース損失を提案する。
筆者らのフレームワークは,1)クラス内コンパクトおよびクラス間分離性の両方を最終表現空間とし,2)複数の標準FASベンチマークにおける最先端手法より優れる。
- 参考スコア(独自算出の注目度): 29.204168516602568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of deep learning, the field of face anti-spoofing (FAS)
has witnessed great progress. FAS is usually considered a classification
problem, where each class is assumed to contain a single cluster optimized by
softmax loss. In practical deployment, one class can contain several local
clusters, and a single-center is insufficient to capture the inherent structure
of the FAS data. However, few approaches consider large distribution
discrepancies in the field of FAS. In this work, we propose a unified framework
called Latent Distribution Adjusting (LDA) with properties of latent,
discriminative, adaptive, generic to improve the robustness of the FAS model by
adjusting complex data distribution with multiple prototypes. 1) Latent. LDA
attempts to model the data of each class as a Gaussian mixture distribution,
and acquire a flexible number of centers for each class in the last fully
connected layer implicitly. 2) Discriminative. To enhance the intra-class
compactness and inter-class discrepancy, we propose a margin-based loss for
providing distribution constrains for prototype learning. 3) Adaptive. To make
LDA more efficient and decrease redundant parameters, we propose Adaptive
Prototype Selection (APS) by selecting the appropriate number of centers
adaptively according to different distributions. 4) Generic. Furthermore, LDA
can adapt to unseen distribution by utilizing very few training data without
re-training. Extensive experiments demonstrate that our framework can 1) make
the final representation space both intra-class compact and inter-class
separable, 2) outperform the state-of-the-art methods on multiple standard FAS
benchmarks.
- Abstract(参考訳): 深層学習の発展に伴い、対面反偽造(FAS)の分野は大きな進歩を目の当たりにした。
FASは通常分類問題と見なされ、各クラスはソフトマックスロスによって最適化された単一のクラスタを含むと仮定される。
実際の展開では、1つのクラスは複数のローカルクラスタを含むことができ、単一のセンタはFASデータ固有の構造をキャプチャするには不十分である。
しかし、FASの分野における大きな分布差を考慮するアプローチはほとんどない。
本研究では,複数のプロトタイプを用いて複雑なデータ分布を調整することにより,FASモデルのロバスト性を改善するために,潜在性,識別性,適応性,汎用性を備えたLDA(Latent Distribution Adjusting)という統合フレームワークを提案する。
1)潜伏。
LDAは各クラスのデータをガウス混合分布としてモデル化し、最後の完全連結層において各クラスのフレキシブルな数のセンターを取得する。
2)差別的。
クラス内コンパクト性とクラス間不一致性を高めるため,プロトタイプ学習のための分布制約を提供するためのマージンベース損失を提案する。
3)適応性。
LDAをより効率的にし、冗長パラメータを減らすために、異なる分布に応じて適切な中心数を選択することで適応型プロトタイプ選択(APS)を提案する。
4)ジェネリック。
さらに、ldaは再訓練することなく、非常に少ないトレーニングデータを利用することで、未発見の分布に適応することができる。
広範な実験によって 我々のフレームワークが
1) クラス内コンパクトかつクラス間分離性の両方を最終表現空間とする。
2) 複数の標準FASベンチマークにおける最先端手法よりも優れていた。
関連論文リスト
- Adaptive Margin Global Classifier for Exemplar-Free Class-Incremental Learning [3.4069627091757178]
既存の手法は主にバイアス学習を扱うことに焦点を当てている。
本研究では,データ不均衡やサンプリングといった既存手法のバイアス要因を回避するために,分散ベースグローバル(DBGC)を導入する。
さらに重要なのは、古いクラスの妥協された分布は、単純な操作、分散(VE)によってシミュレートされることだ。
この損失は、Adaptive Margin Softmax Cross Entropy (AMarX)と等価であることが証明されている。
論文 参考訳(メタデータ) (2024-09-20T07:07:23Z) - Prototype Fission: Closing Set for Robust Open-set Semi-supervised
Learning [6.645479471664253]
半教師なし学習(SSL)は、現実的な大規模教師なしデータセットにおいて、オフ・オブ・ディストリビューション(OOD)サンプルに対して脆弱であることが証明されている。
本稿では,クラスワイド潜在空間をコンパクトな部分空間に分割するPF(Prototype Fission)を提案する。
論文 参考訳(メタデータ) (2023-08-29T19:04:42Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Powering Finetuning in Few-shot Learning: Domain-Agnostic Feature
Adaptation with Rectified Class Prototypes [32.622613524622075]
ファインタニングは、新しいクラスの特徴分布におけるバイアスを減らすことに重点を置いている。
DCMとSSで微調整を行うことで、メタデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2022-04-07T21:29:12Z) - BMD: A General Class-balanced Multicentric Dynamic Prototype Strategy
for Source-free Domain Adaptation [74.93176783541332]
Source-free Domain Adaptation (SFDA)は、トレーニング済みのソースモデルを、十分にラベル付けされたソースデータにアクセスすることなく、未ラベルのターゲットドメインに適応することを目的としている。
ソースデータの欠如を補うため、既存のほとんどのメソッドは、機能プロトタイプベースの擬似ラベル戦略を導入した。
SFDAタスクのための汎用クラスベース多中心動的プロトタイプ戦略を提案する。
論文 参考訳(メタデータ) (2022-04-06T13:23:02Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Self-Weighted Robust LDA for Multiclass Classification with Edge Classes [111.5515086563592]
SWRLDAと呼ばれる,l21ノルムを基準とした新しい自己重み付き頑健なLDAを提案する。
提案するSWRLDAは実装が容易で,実際に高速に収束する。
論文 参考訳(メタデータ) (2020-09-24T12:32:55Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。