論文の概要: Simulated Adversarial Testing of Face Recognition Models
- arxiv url: http://arxiv.org/abs/2106.04569v1
- Date: Tue, 8 Jun 2021 17:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:41:29.556885
- Title: Simulated Adversarial Testing of Face Recognition Models
- Title(参考訳): 顔認識モデルのシミュレーション逆検
- Authors: Nataniel Ruiz, Adam Kortylewski, Weichao Qiu, Cihang Xie, Sarah Adel
Bargal, Alan Yuille, Stan Sclaroff
- Abstract要約: 本稿では,シミュレータを用いて機械学習アルゴリズムの検証方法を学ぶためのフレームワークを提案する。
実データでトレーニングされたモデルの弱点が、シミュレーションサンプルを使って発見できることを示すのはこれが初めてである。
- 参考スコア(独自算出の注目度): 53.10078734154151
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most machine learning models are validated and tested on fixed datasets. This
can give an incomplete picture of the capabilities and weaknesses of the model.
Such weaknesses can be revealed at test time in the real world. The risks
involved in such failures can be loss of profits, loss of time or even loss of
life in certain critical applications. In order to alleviate this issue,
simulators can be controlled in a fine-grained manner using interpretable
parameters to explore the semantic image manifold. In this work, we propose a
framework for learning how to test machine learning algorithms using simulators
in an adversarial manner in order to find weaknesses in the model before
deploying it in critical scenarios. We apply this model in a face recognition
scenario. We are the first to show that weaknesses of models trained on real
data can be discovered using simulated samples. Using our proposed method, we
can find adversarial synthetic faces that fool contemporary face recognition
models. This demonstrates the fact that these models have weaknesses that are
not measured by commonly used validation datasets. We hypothesize that this
type of adversarial examples are not isolated, but usually lie in connected
components in the latent space of the simulator. We present a method to find
these adversarial regions as opposed to the typical adversarial points found in
the adversarial example literature.
- Abstract(参考訳): ほとんどの機械学習モデルは、固定データセット上で検証され、テストされる。
これにより、モデルの能力と弱点の完全な図が得られます。
このような弱点は実世界でのテスト時に明らかになる。
このような失敗にかかわるリスクは、利益の損失、時間的損失、あるいは特定の重要な応用における生命の喪失である。
この問題を緩和するために、シミュレーターは解釈可能なパラメータを使ってきめ細かな方法で制御し、セマンティックイメージ多様体を探索することができる。
そこで本研究では,シミュレーションを用いて機械学習アルゴリズムを逆向きにテストする方法を学習し,重要なシナリオにデプロイする前にモデルの弱点を見つけるためのフレームワークを提案する。
このモデルを顔認識シナリオに適用する。
私たちは、実データでトレーニングされたモデルの弱点が、シミュレーションサンプルを使って発見できることを初めて示す。
提案手法を用いることで,現代の顔認識モデルを騙した対向合成顔を見つけることができる。
これは、これらのモデルが一般的なバリデーションデータセットでは測定されない弱点を持っていることを示しています。
このタイプの逆例が孤立しているのではなく、通常はシミュレータの潜在空間内の連結成分にあると仮定する。
そこで本論文では, 典型的対向点に対して, これらの対向領域を求める手法を提案する。
関連論文リスト
- A Training Rate and Survival Heuristic for Inference and Robustness Evaluation (TRASHFIRE) [1.622320874892682]
この研究は、特定のモデルハイパーパラメータが、相手の存在下でモデルの性能にどのように影響するかを理解し予測する問題に対処する。
提案手法では、サバイバルモデル、最悪の例、コスト認識分析を用いて、特定のモデル変更を正確かつ正確に拒否する。
提案手法を用いて、最も単純なホワイトボックス攻撃に対して、ResNetは絶望的に反対であることを示す。
論文 参考訳(メタデータ) (2024-01-24T19:12:37Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Learning Hybrid Dynamics Models With Simulator-Informed Latent States [7.801959219897031]
そこで我々は,シミュレーションを用いて学習モデルの潜伏状態を通知するハイブリッドモデリング手法を提案する。
これにより、シミュレータを介して予測を制御することで、エラーの蓄積を防ぐことができる。
学習に基づく設定では、シミュレータを通して潜在状態を推測するダイナミクスとオブザーバを共同で学習する。
論文 参考訳(メタデータ) (2023-09-06T09:57:58Z) - Metamorphic Testing-based Adversarial Attack to Fool Deepfake Detectors [2.0649235321315285]
ディープフェイク検出技術はディープフェイクメディアを見つけるのに役立つ。
現在のディープフェイク検出モデルは、卓越した精度(>90%)を達成することができる
本研究は、メイクアップを、ディープフェイク検出器を騙す可能性のある敵攻撃として特定する。
論文 参考訳(メタデータ) (2022-04-19T02:24:30Z) - Smoothed Embeddings for Certified Few-Shot Learning [63.68667303948808]
我々はランダムな平滑化を数ショットの学習モデルに拡張し、入力を正規化された埋め込みにマッピングする。
この結果は、異なるデータセットの実験によって確認される。
論文 参考訳(メタデータ) (2022-02-02T18:19:04Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Detecting Anomalies in Semantic Segmentation with Prototypes [23.999211737485812]
本稿では,プロトタイプ学習による異常セグメンテーションに対処することを提案する。
我々のアプローチは、過去の作品よりも大きな差で、新しい芸術の状態を達成している。
論文 参考訳(メタデータ) (2021-06-01T13:22:33Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Trade-offs between membership privacy & adversarially robust learning [13.37805637358556]
標準モデルがロバストモデルよりもはるかに過度に適合する設定を特定します。
オーバーフィッティングの度合いは、トレーニングに利用可能なデータの量に依存する。
論文 参考訳(メタデータ) (2020-06-08T14:20:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。