論文の概要: RobFR: Benchmarking Adversarial Robustness on Face Recognition
- arxiv url: http://arxiv.org/abs/2007.04118v2
- Date: Wed, 29 Sep 2021 08:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:13:46.680648
- Title: RobFR: Benchmarking Adversarial Robustness on Face Recognition
- Title(参考訳): RobFR: 顔認識における敵対的ロバスト性のベンチマーク
- Authors: Xiao Yang, Dingcheng Yang, Yinpeng Dong, Hang Su, Wenjian Yu, Jun Zhu
- Abstract要約: 顔認識(FR)は、最近大きく進歩し、標準ベンチマークで高い精度を達成した。
FRの逆方向の脆弱性をよりよく理解するために,textbfRobFRというFR上の逆方向の頑健性評価ライブラリを開発した。
RobFRには15の一般的な自然訓練されたFRモデル、代表防御機構を備えた9つのモデル、2つの商用FR APIサービスが含まれている。
- 参考スコア(独自算出の注目度): 41.296221656624716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition (FR) has recently made substantial progress and achieved
high accuracy on standard benchmarks. However, it has raised security concerns
in enormous FR applications because deep CNNs are unusually vulnerable to
adversarial examples, and it is still lack of a comprehensive robustness
evaluation before a FR model is deployed in safety-critical scenarios. To
facilitate a better understanding of the adversarial vulnerability on FR, we
develop an adversarial robustness evaluation library on FR named
\textbf{RobFR}, which serves as a reference for evaluating the robustness of
downstream tasks. Specifically, RobFR involves 15 popular naturally trained FR
models, 9 models with representative defense mechanisms and 2 commercial FR API
services, to perform the robustness evaluation by using various adversarial
attacks as an important surrogate. The evaluations are conducted under diverse
adversarial settings in terms of dodging and impersonation, $\ell_2$ and
$\ell_\infty$, as well as white-box and black-box attacks. We further propose a
landmark-guided cutout (LGC) attack method to improve the transferability of
adversarial examples for black-box attacks by considering the special
characteristics of FR. Based on large-scale evaluations, the commercial FR API
services fail to exhibit acceptable performance on robustness evaluation, and
we also draw several important conclusions for understanding the adversarial
robustness of FR models and providing insights for the design of robust FR
models. RobFR is open-source and maintains all extendable modules, i.e.,
\emph{Datasets}, \emph{FR Models}, \emph{Attacks\&Defenses}, and
\emph{Evaluations} at
\url{https://github.com/ShawnXYang/Face-Robustness-Benchmark}, which will be
continuously updated to promote future research on robust FR.
- Abstract(参考訳): 顔認識(fr)は最近かなり進歩し、標準ベンチマークで高い精度を達成した。
しかし、深いCNNは敵の例に対して異常に脆弱であり、FRモデルが安全クリティカルなシナリオにデプロイされる前に包括的な堅牢性評価がないため、巨大なFRアプリケーションでセキュリティ上の懸念を提起している。
FRにおける敵の脆弱性の理解を深めるため,下流タスクのロバスト性を評価するための基準として,textbf{RobFR} と呼ばれるFR上の逆のロバスト性評価ライブラリを開発した。
特に、RobFRは15の一般的な自然訓練されたFRモデル、代表防御機構を備えた9つのモデル、および2つの商用FR APIサービスを含み、様々な敵攻撃を重要な代理として使用することによって堅牢性の評価を行う。
評価は、ドッジと偽造、$\ell_2$と$\ell_\infty$、およびホワイトボックスとブラックボックスアタックの様々な敵設定の下で行われる。
さらに, FRの特殊特性を考慮し, ブラックボックス攻撃の敵例の伝達性を向上させるために, ランドマーク誘導カットアウト(LGC)攻撃法を提案する。
大規模評価に基づいて,商用fr apiサービスはロバスト性評価において許容できる性能を示すことができず,また,frモデルの敵対的ロバスト性を理解し,ロバストfrモデルの設計に関する洞察を提供する上で重要な結論を導出する。
RobFRはオープンソースであり、すべての拡張可能なモジュール、すなわち \emph{Datasets}, \emph{FR Models}, \emph{Attacks\&Defenses}, \emph{Evaluations} at \url{https://github.com/ShawnXYang/Face-Robustness-Benchmark}を維持している。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - FLIRT: Feedback Loop In-context Red Teaming [79.63896510559357]
ブラックボックスモデルを評価し,その脆弱性を明らかにする自動レッドチーム化フレームワークを提案する。
私たちのフレームワークは、レッドチームモデルに対するフィードバックループでコンテキスト内学習を使用し、それらを安全でないコンテンツ生成にトリガーします。
論文 参考訳(メタデータ) (2023-08-08T14:03:08Z) - SureFED: Robust Federated Learning via Uncertainty-Aware Inward and
Outward Inspection [29.491675102478798]
本稿では,堅牢なフェデレーション学習のための新しいフレームワークであるSureFEDを紹介する。
SureFEDは、良識のあるクライアントのローカル情報を使って信頼を確立する。
理論的には、データとモデル中毒攻撃に対するアルゴリズムの堅牢性を証明する。
論文 参考訳(メタデータ) (2023-08-04T23:51:05Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - From Adversarial Arms Race to Model-centric Evaluation: Motivating a
Unified Automatic Robustness Evaluation Framework [91.94389491920309]
テキストの敵対攻撃は、セマンティック保存されているが、入力に誤解を招く摂動を加えることでモデルの弱点を発見することができる。
既存のロバストネス評価の実践は、包括的評価、非現実的評価プロトコル、無効な対人サンプルの問題を示す可能性がある。
我々は、敵攻撃の利点を活用するために、モデル中心の評価にシフトする統合された自動ロバストネス評価フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-29T14:55:20Z) - FROB: Few-shot ROBust Model for Classification and Out-of-Distribution
Detection [0.0]
ROBust (Few-shot ROBust) は、OoD検出のための分類モデルである。
本稿では,自己教師付き学習による数発の信頼境界手法を提案する。
FROBは、競合性能を達成し、少数のサンプル集団と変動性の堅牢性の観点からベンチマークを上回ります。
論文 参考訳(メタデータ) (2021-11-30T15:20:44Z) - Enhanced countering adversarial attacks via input denoising and feature
restoring [15.787838084050957]
ディープニューラルネットワーク(DNN)は、クリーン/オリジンサンプルにおいて知覚できない摂動を伴う敵の例/サンプル(AE)に対して脆弱である。
本稿では,IDFR(Input Denoising and Feature Restoring)による対向攻撃手法の強化について述べる。
提案したIDFRは, 凸船体最適化に基づく拡張型インプットデノイザ (ID) と隠れ型ロスィ特徴復元器 (FR) から構成される。
論文 参考訳(メタデータ) (2021-11-19T07:34:09Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。