論文の概要: A visualization method for data domain changes in CNN networks and the optimization method for selecting thresholds in classification tasks
- arxiv url: http://arxiv.org/abs/2404.12602v1
- Date: Fri, 19 Apr 2024 03:12:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 16:24:58.641852
- Title: A visualization method for data domain changes in CNN networks and the optimization method for selecting thresholds in classification tasks
- Title(参考訳): CNNネットワークにおけるデータ領域変化の可視化法と分類作業におけるしきい値選択のための最適化法
- Authors: Minzhe Huang, Changwei Nie, Weihong Zhong,
- Abstract要約: Face Anti-Spoofing (FAS) は、顔認識技術のセキュリティを維持する上で重要な役割を担っている。
偽造顔生成技術の台頭に伴い、デジタル編集された顔が反偽造に直面する課題がエスカレートしている。
本稿では,データセット上での予測結果を可視化することにより,モデルのトレーニング結果を直感的に反映する可視化手法を提案する。
- 参考スコア(独自算出の注目度): 1.1118946307353794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Face Anti-Spoofing (FAS) has played a crucial role in preserving the security of face recognition technology. With the rise of counterfeit face generation techniques, the challenge posed by digitally edited faces to face anti-spoofing is escalating. Existing FAS technologies primarily focus on intercepting physically forged faces and lack a robust solution for cross-domain FAS challenges. Moreover, determining an appropriate threshold to achieve optimal deployment results remains an issue for intra-domain FAS. To address these issues, we propose a visualization method that intuitively reflects the training outcomes of models by visualizing the prediction results on datasets. Additionally, we demonstrate that employing data augmentation techniques, such as downsampling and Gaussian blur, can effectively enhance performance on cross-domain tasks. Building upon our data visualization approach, we also introduce a methodology for setting threshold values based on the distribution of the training dataset. Ultimately, our methods secured us second place in both the Unified Physical-Digital Face Attack Detection competition and the Snapshot Spectral Imaging Face Anti-spoofing contest. The training code is available at https://github.com/SeaRecluse/CVPRW2024.
- Abstract(参考訳): 近年,顔認識技術のセキュリティ維持にFAS(Face Anti-Spoofing)が重要な役割を果たしている。
偽造顔生成技術の台頭に伴い、デジタル編集された顔が反偽造に直面する課題がエスカレートしている。
既存のFAS技術は主に、物理的に鍛えられた顔のインターセプトと、ドメイン間のFAS課題に対する堅牢なソリューションの欠如に焦点を当てている。
さらに、最適なデプロイメント結果を達成するための適切なしきい値を決定することは、ドメイン内FASの問題である。
これらの課題に対処するために,データセット上で予測結果を可視化することにより,モデルのトレーニング結果を直感的に反映する可視化手法を提案する。
さらに、ダウンサンプリングやガウス的曖昧化といったデータ拡張技術を用いることで、ドメイン間タスクのパフォーマンスを効果的に向上させることができることを示す。
データビジュアライゼーションのアプローチに基づいて、トレーニングデータセットの分布に基づいてしきい値を設定する手法も導入しています。
最終的に、我々の方法では、Unified Physical-Digital Face Detection competitionとSnapshot Spectral Imaging Face Anti-spoofing contestの両方で2位を獲得しました。
トレーニングコードはhttps://github.com/SeaRecluse/CVPRW2024で公開されている。
関連論文リスト
- Towards Data-Centric Face Anti-Spoofing: Improving Cross-domain Generalization via Physics-based Data Synthesis [64.46312434121455]
Face Anti-Spoofing (FAS) 研究は、トレーニングデータとテストデータの間にドメインギャップがあるクロスドメイン問題によって難題となっている。
本研究では,タスク固有のFASデータ拡張(FAS-Aug)を提案する。
また,特定の種類のアーティファクトをモデルが依存しないようにし,一般化性能を向上させるために,SARE(Spowing Attack Risk Equalization)を提案する。
論文 参考訳(メタデータ) (2024-09-04T01:45:18Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Fiducial Focus Augmentation for Facial Landmark Detection [4.433764381081446]
本稿では,モデルによる顔構造理解を高めるために,新しい画像強調手法を提案する。
我々は,Deep Canonical correlation Analysis (DCCA) に基づく損失を考慮した,シームズアーキテクチャに基づくトレーニング機構を採用している。
提案手法は,様々なベンチマークデータセットにおいて,最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-02-23T01:34:00Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Robust face anti-spoofing framework with Convolutional Vision
Transformer [1.7596501992526474]
本研究では、様々な未確認領域データに対して堅牢な性能を実現する畳み込み型視覚変換器に基づくフレームワークを提案する。
また、ドメイン一般化のための他の9つのベンチマークモデルよりも、クロスデータセット設定のサブプロトコールにおける最も高い平均ランクを示す。
論文 参考訳(メタデータ) (2023-07-24T00:03:09Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。