論文の概要、ライセンス

# (参考訳) 顔認識モデルのシミュレーション逆検 [全文訳有]

Simulated Adversarial Testing of Face Recognition Models ( http://arxiv.org/abs/2106.04569v1 )

ライセンス: CC BY 4.0
Nataniel Ruiz, Adam Kortylewski, Weichao Qiu, Cihang Xie, Sarah Adel Bargal, Alan Yuille, Stan Sclaroff(参考訳) ほとんどの機械学習モデルは、固定データセット上で検証され、テストされる。 これにより、モデルの能力と弱点の完全な図が得られます。 このような弱点は実世界でのテスト時に明らかになる。 このような失敗にかかわるリスクは、利益の損失、時間的損失、あるいは特定の重要な応用における生命の喪失である。 この問題を緩和するために、シミュレーターは解釈可能なパラメータを使ってきめ細かな方法で制御し、セマンティックイメージ多様体を探索することができる。 そこで本研究では,シミュレーションを用いて機械学習アルゴリズムを逆向きにテストする方法を学習し,重要なシナリオにデプロイする前にモデルの弱点を見つけるためのフレームワークを提案する。 このモデルを顔認識シナリオに適用する。 私たちは、実データでトレーニングされたモデルの弱点が、シミュレーションサンプルを使って発見できることを初めて示す。 提案手法を用いることで,現代の顔認識モデルを騙した対向合成顔を見つけることができる。 これは、これらのモデルが一般的なバリデーションデータセットでは測定されない弱点を持っていることを示しています。 このタイプの逆例が孤立しているのではなく、通常はシミュレータの潜在空間内の連結成分にあると仮定する。 そこで本論文では, 典型的対向点に対して, これらの対向領域を求める手法を提案する。

Most machine learning models are validated and tested on fixed datasets. This can give an incomplete picture of the capabilities and weaknesses of the model. Such weaknesses can be revealed at test time in the real world. The risks involved in such failures can be loss of profits, loss of time or even loss of life in certain critical applications. In order to alleviate this issue, simulators can be controlled in a fine-grained manner using interpretable parameters to explore the semantic image manifold. In this work, we propose a framework for learning how to test machine learning algorithms using simulators in an adversarial manner in order to find weaknesses in the model before deploying it in critical scenarios. We apply this model in a face recognition scenario. We are the first to show that weaknesses of models trained on real data can be discovered using simulated samples. Using our proposed method, we can find adversarial synthetic faces that fool contemporary face recognition models. This demonstrates the fact that these models have weaknesses that are not measured by commonly used validation datasets. We hypothesize that this type of adversarial examples are not isolated, but usually lie in connected components in the latent space of the simulator. We present a method to find these adversarial regions as opposed to the typical adversarial points found in the adversarial example literature.
公開日: Tue, 8 Jun 2021 17:58:10 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Simulated Adversarial Testing of Face Recognition Models 顔認識モデルのシミュレーション逆検 0.68
Nataniel Ruiz Boston University nruiz9@bu.edu ナタニエル・ルイス ボストン大学nruiz9@bu.edu 0.52
Adam Kortylewski Adam Kortylewski 0.85
Johns Hopkins University ジョンズ・ホプキンス大学 0.68
akortyl1@jhu.edu akortyl1@jhu.edu 0.67
Weichao Qiu weichao qiu 0.60
Huawei qiuwch@gmail.com ファーウェイ qiuwch@gmail.com 0.53
Cihang Xie UC Santa Cruz Cihang Xie UC Santa Cruz 0.85
cixie@ucsc.edu cixie@ucsc.edu 0.78
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] V C . 8 ] 略称はC。 0.73
s c [ 1 v 9 6 5 4 0 sc [ 1 v 9 6 5 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Sarah Adel Bargal Boston University sbargal@bu.edu Sarah Adel Bargal Boston University sbargal@bu.edu 0.96
Alan Yuille∗ Johns Hopkins University アラン・ユイユ∗ ジョンズ・ホプキンス大学 0.53
ayuille1@jhu.edu ayuille1@jhu.edu 0.67
Stan Sclaroff∗ Boston University sclaroff@bu.edu Stan Sclaroff* Boston University sclaroff@bu.edu 0.82
Abstract Most machine learning models are validated and tested on fixed datasets. 概要 ほとんどの機械学習モデルは、固定データセット上で検証され、テストされる。 0.53
This can give an incomplete picture of the capabilities and weaknesses of the model. これにより、モデルの能力と弱点の完全な図が得られます。 0.74
Such weaknesses can be revealed at test time in the real world. このような弱点は実世界でのテスト時に明らかになる。 0.74
The risks involved in such failures can be loss of profits, loss of time or even loss of life in certain critical applications. このような失敗にかかわるリスクは、利益の損失、時間的損失、あるいは特定の重要な応用における生命の喪失である。 0.67
In order to alleviate this issue, simulators can be controlled in a fine-grained manner using interpretable parameters to explore the semantic image manifold. この問題を緩和するために、シミュレーターは解釈可能なパラメータを使ってきめ細かな方法で制御し、セマンティックイメージ多様体を探索することができる。 0.66
In this work, we propose a framework for learning how to test machine learning algorithms using simulators in an adversarial manner in order to find weaknesses in the model before deploying it in critical scenarios. そこで本研究では,シミュレーションを用いて機械学習アルゴリズムを逆向きにテストする方法を学習し,重要なシナリオにデプロイする前にモデルの弱点を見つけるためのフレームワークを提案する。 0.88
We apply this model in a face recognition scenario. このモデルを顔認識シナリオに適用する。 0.68
We are the first to show that weaknesses of models trained on real data can be discovered using simulated samples. 私たちは、実データでトレーニングされたモデルの弱点が、シミュレーションサンプルを使って発見できることを初めて示す。 0.76
Using our proposed method, we can find adversarial synthetic faces that fool contemporary face recognition models. 提案手法を用いることで,現代の顔認識モデルを騙した対向合成顔を見つけることができる。 0.73
This demonstrates the fact that these models have weaknesses that are not measured by commonly used validation datasets. これは、これらのモデルが一般的なバリデーションデータセットでは測定されない弱点を持っていることを示しています。
訳抜け防止モード: これは これらのモデルには、一般的に使用される検証データセットでは測定されない弱点がある。
0.65
We hypothesize that this type of adversarial examples are not isolated, but usually lie in connected components in the latent space of the simulator. このタイプの逆例が孤立しているのではなく、通常はシミュレータの潜在空間内の連結成分にあると仮定する。 0.69
We present a method to find these adversarial regions as opposed to the typical adversarial points found in the adversarial example literature. そこで本論文では, 典型的対向点に対して, これらの対向領域を求める手法を提案する。 0.64
1 Introduction Evaluating a machine learning model can have many pitfalls. 1 はじめに 機械学習モデルの評価には多くの落とし穴がある。 0.70
Ideally, we would like to know (1) when the model will fail (2) in which way it will fail and (3) how badly it will fail. 理想的には、(1)モデルがいつ失敗するのか、(2)どの方法で失敗するのか、(3)どの程度失敗するのかを知りたい。 0.76
In other words, we would like to be able to accurately estimate the model’s risk on the true test data distribution as well as know what specific factors induce the model to failure. 言い換えれば、真のテストデータ分布に対するモデルのリスクを正確に推定し、モデルに障害を引き起こす特定の要因を把握できるようにしたいのです。 0.73
We would like to know how these failures will manifest themselves. これらの失敗がどのように現れるのか知りたいです。 0.65
For example, whether a face verification model will generate a false-positive or false-negative error. 例えば、顔検証モデルが偽陽性または偽陰性のエラーを発生させるかどうかです。 0.64
And finally, when this failure happens, we would like to know how confident was the incorrect decision by the model. そして最後に、この失敗が発生したとき、モデルによる誤った決定がどれほど自信があるのかを知りたいと考えています。 0.66
Testing models is no longer a purely academic endeavour [48], with many high profile bad societal consequences being revealed in recent years due to insufficient testing particularly with respect to racial and gender bias in face analysis systems [5, 14, 16]. 顔分析システム [5, 14, 16] における人種的, 性別的偏見に関する検査が不十分なため, 近年, 高い評価の社会的結果が明らかにされているため, テストモデルはもはや純粋に学術的な試みではない [48] 。 0.78
These three desiderata are very hard to achieve in practice. この3つのデシダラタは実際は達成が難しい。 0.49
There are major philosophical and theoretical obstacles to achieve perfect knowledge of model failures a priori. 事前のモデル失敗の完全な知識を達成するには、哲学的、理論的な大きな障害がある。 0.60
Nevertheless, partial *Equal senior contribution. それでも一部 ※重役。 0.44
Preprint. Under review. プレプリント。 レビュー中。 0.63
英語(論文から抽出)日本語訳スコア
knowledge of model weaknesses and predictions of model failures are possible. モデルの弱点の知識と モデルの失敗の予測が可能です 0.88
Yet, there are still major hurdles that stand in our way. しかし、私たちの邪魔をする大きなハードルがまだあります。 0.64
One such hurdle is the fact that testing data is limited, due to the fact that it is expensive to gather and label. このようなハードルのひとつは、データの収集とラベル付けが高価であるため、テストデータが制限されていることだ。 0.67
It is not uncommon for a model to perform well on an assigned test set and fail to generalize to specific obscure examples when it is deployed. モデルが割り当てられたテストセット上でうまく動作し、デプロイ時に特定の不明瞭な例に一般化できないことは珍しくない。 0.75
A second important hurdle is the fact that testing data is unruly. 2つめの重要なハードルは、データテストが不正であるという事実です。 0.62
There are latent factors that generate the testing data, which are hard to control or even to fully understand. テストデータを生成するには、制御が難しい、あるいは完全に理解できない要因が潜んでいる。 0.71
For example, a known factor that is hard to control is the lighting of a scene. 例えば、制御が難しい既知の要因は、シーンの照明である。 0.63
Most datasets have been captured without controlling for this variable, and thus present an insufficient amount of variability in this respect. ほとんどのデータセットは、この変数を制御せずにキャプチャされ、そのため、この点では、変更可能性が不十分である。 0.55
Testing a model in one environment cold yield perfect performance, yet fail on an environment with more lighting variability. 1つの環境でモデルをテストすると完璧な性能が得られるが、照明の変動が大きい環境では失敗する。 0.65
Even if a test dataset with carefully controlled lighting were assembled, the dataset would be very expensive and time-consuming to collect and there is no guarantee that the full variability would be explored. 注意深く制御された照明を備えたテストデータセットが組み立てられたとしても、データセットは非常に高価で、収集に時間がかかるだろう。 0.64
A way to tackle these problems is to use simulators to generate test data. これらの問題に対処する1つの方法は、シミュレータを使ってテストデータを生成することである。 0.56
Such an approach can cheaply generate a large quantity of data spanning a large spectrum. このようなアプローチは、大きなスペクトルにまたがる大量のデータを安価に生成することができる。 0.67
Also, simulators are fully controllable and the generative parameters are known. また、シミュレータは完全に制御可能であり、生成パラメータが知られている。 0.62
This allows for careful exploration of situations where models fail. これにより、モデルが失敗する状況を慎重に探索することができる。 0.55
This includes the possibility to find intepretable factors that generate failures, to study the way these failures manifest themselves (is the model classifying a cat as a jaguar when there is green in the background?) これには、障害を発生させる予測不可能な要因を見つける可能性や、これらの障害の出現方法を研究することが含まれる(背景に緑があるときに猫をジャガーとして分類するモデルがあるのか? 0.59
and to examine the degrees of certainty of the model in these failure modes. そして、これらの失敗モードにおけるモデルの確実性を調べる。 0.70
When simulating test data, we have full control over simulator parameters. テストデータをシミュレーションする場合、シミュレーターパラメータを完全に制御できる。 0.83
Thus, we are able to explore the manifold generated by the simulator in the space of the simulator parameters. したがって、シミュレータパラメータの空間内でシミュレータによって生成される多様体を探索することができる。 0.80
We call this manifold the semantic image manifold, in contrast to the adversarial image manifold that is explored in the traditional adversarial attack literature. この多様体を意味的イメージ多様体(semantic image manifold)と呼び、従来の敵対的イメージ多様体(adversarial image manifold)とは対照的である。 0.61
A random exploration of this manifold is both inefficient and not the most informative approach. この多様体のランダムな探索は非効率であり、最も有益なアプローチではない。 0.65
In this work we propose to test machine learning models using simulation in an adversarial manner by finding simulator parameters that generate samples that fool the model. 本研究では,モデルを騙すサンプルを生成するシミュレータパラメータを探索することにより,逆向きにシミュレーションを用いて機械学習モデルをテストすることを提案する。 0.82
We are inspired by the literature on adversarial examples that fool machine learning models, yet in contrast to this body of work, the adversarial examples that our simulator generates are semantically realistic in the sense that we are not adding low magnitude noise to an image in order to fool the model but finding semantically sensible image configurations that generate model failure. 我々は,機械学習モデルを騙すような敵対的な例に関する文献に着想を得たが,この研究とは対照的に,シミュレータが生成する逆の例は,モデルを騙すために低等級ノイズを画像に加えるのではなく,意味的に知覚可能な画像構成を見つけ出すという意味で,意味的に現実的である。 0.81
In this way, we are not investigating the well-known weakness of gradient-based models to unrealistic targeted noise but to plausible scenes that might be rare, yet mislead the model. このように、グラデーションに基づくモデルの、非現実的なターゲットノイズに対する、よく知られた弱さを調査していない。 0.57
We present a method that finds adversarial samples efficiently using a continuous policy that searches the high-dimensional space of possibilities. 本稿では,高次元空間を探索する連続ポリシーを用いて,敵のサンプルを効率的に見つける手法を提案する。 0.69
A limitation of this type of work is that, in general there exists domain shift between the distribution described by the simulator and the real world distribution [13, 7, 43, 42, 17, 32]. このタイプの作業の制限は、一般にシミュレータによって記述された分布と実世界の分布[13, 7, 43, 42, 17, 32]の間にドメインシフトが存在することである。 0.91
Nevertheless, in our work we are able to show that in some situations, real model weaknesses can be found using simulated data. それでも私たちの研究では、いくつかの状況では、シミュレーションデータを使って実際のモデルの弱点を見つけることができます。
訳抜け防止モード: それでも 私たちの仕事では いくつかの状況において、実モデルの弱点がシミュレーションデータを使って見つかることを示す。
0.76
This gives credence to the hypothesis that, even though there is domain shift, simulated samples can be informative. このことは、たとえドメインシフトがあるとしても、シミュレーションされたサンプルは情報を与えることができるという仮説に信条を与える。
訳抜け防止モード: これは仮説に信頼を与えます ドメインシフトはあるが、シミュレーションされたサンプルは有益である。
0.66
Also, simulators are rapidly improving in terms of realism [37, 29, 10, 24]. また、シミュレーターはリアリズム(37,29,10,24]の観点から急速に改善している。 0.73
This allows for greater opportunities to use these ideas in the future as simulated and real data distributions become more and more aligned. これにより、シミュレーションや実際のデータ分散がより整合するようになれば、将来的にこれらのアイデアを使う機会が増える。 0.65
Following our semantic image manifold hypothesis we conjecture that these adversarial examples are not isolated points in space, but instead are regions of this manifold. 意味的イメージ多様体の仮説に従うと、これらの逆例は空間の孤立点ではなく、その多様体の領域であると推測する。
訳抜け防止モード: 意味的イメージ多様体仮説に従うと これらの逆例は空間内の孤立点ではなく、むしろこの多様体の領域である。
0.71
In prior work on traditional adversarial examples, optimization procedures find adversarial samples that are points in image space [41, 30, 6, 15, 27, 38]. 従来のadversarial例の先行研究において、最適化手順は画像空間[41, 30, 6, 15, 27, 38]内の点である逆サンプルを見つける。 0.71
In contrast to this body of work we propose a method to find these adversarial regions instead. この研究とは対照的に、我々はこれらの対向領域を代わりに見つける方法を提案する。 0.57
This is valuable because ideally we would like to be able to fully describe the machine learning model’s regions of reliability, where model predictions will tend to be correct. なぜなら、理想的には、モデル予測が正しい傾向がある機械学習モデルの信頼性の領域を完全に記述できることを望んでいるからです。 0.75
With this knowledge a user would be able to avoid performing inference on a model outside of its scope in order to minimize failures. この知識により、ユーザは、障害を最小限に抑えるために、スコープ外のモデルでの推論を回避できる。 0.64
Contributions of this work are three-fold. この作品の貢献は3つある。 0.69
We summarize them as follows: • We show that weaknesses of models trained on real data can be discovered using simulated samples. 以下にまとめる。 • 実データで訓練されたモデルの弱点は, 模擬サンプルを用いて発見できることを示す。 0.55
We perform experiments on face recognition networks showing that we can diagnose the weakness of a model trained on biased data. 顔認証ネットワーク上で実験を行い,偏りのあるデータに基づくモデルの弱さを診断できることを示した。 0.77
• We present a method to find adversarial simulated samples in the semantic image manifold by finding adversarial simulator parameters that generate such samples. •このようなサンプルを生成する逆シミュレータパラメータを探索することにより,意味画像多様体内の逆シミュレーションサンプルを探索する手法を提案する。 0.74
We present experiments 2 我々は実験を行う 2 0.77
英語(論文から抽出)日本語訳スコア
on contemporary face recognition networks showing that we can efficiently find faces that are incorrectly recognized by the network. 現代の顔認識ネットワークでは ネットワークで正しく認識されていない 顔を見つけ出すことができます 0.83
• We present a method to find regions that are adversarial, in order to locate danger zones where a model’s predictions are more liable to be incorrect. • モデルの予測が誤りである場合の危険領域を特定するために, 敵対する領域を見つける方法を提案する。 0.64
This is in contrast to the adversarial attack literature that finds isolated adversarial points instead of regions. これは、地域ではなく孤立した対立点を見つける敵攻撃文献とは対照的である。 0.60
2 A Framework for Simulated Adversarial Testing 2 A Framework for Simulated Adversarial Testing 0.85
Here we formalize adversarial testing using a simulator. ここでは,シミュレータを用いた逆テストの形式化を行う。 0.55
We postulate some assumptions on the data generation process in the real and simulator world. 現実とシミュレータの世界におけるデータ生成プロセスに関するいくつかの仮定を仮定する。 0.71
Then we write the risks for a machine learning model and the mathematical formulation to find adversarial parameters that yield samples that fool machine learning models. 次に、機械学習モデルのリスクと数学的定式化を書き、機械学習モデルを騙すサンプルを生成する逆パラメータを見つける。 0.75
We then strike some parallels between our scenario and the literature on learning across domains. 次に、シナリオとドメイン間の学習に関する文献にいくつかの類似点を突き止めます。 0.63
Finally, we describe our proposed algorithm to find such adversarial simulator parameters and adversarial samples. 最後に,提案アルゴリズムを用いて,その逆シミュレータパラメータと逆サンプルを探索する。 0.71
Let us assume the real world data (x, y) (where x is the data and y is the label) is generated by the distribution p(x, y|ψ) where ψ is a latent variable that causally controls the data generation process. 実世界のデータ (x, y) (x がデータで y がラベル) が分布 p(x, y|ψ) によって生成されると仮定する。
訳抜け防止モード: 実世界データ (x, y ) ( where) を仮定します。 xはデータ yはラベル ) は分布 p(x, y| ) によって生成される。 はデータ生成プロセスを因果的に制御する潜在変数である。
0.79
For example, ψ includes the object type in the image and the angle of view of such an object, as well as all other parameters that generate the scene and image. 例えば、ψは、画像中のオブジェクトタイプと、そのようなオブジェクトのビューの角度と、シーンとイメージを生成する他のパラメータを含む。 0.70
The risk for a discriminative model f is: (1) 判別モデル f のリスクは次の通りである。 0.56
Eψ∼a[E(x,y)∼p(x,y|ψ)[L(f (x), y)]], eψsa[e(x,y)}\p(x,y|ψ)[l(f(x,y)]], 0.65
where a is the distribution of ψ and L is the loss. a が の分布であり、L が損失である。 0.72
We can search for ψ∗ that maximizes this risk: このリスクを最大化する ψ∗ を探索することができる。 0.57
[E(x,y)∼p(x,y|ψ)[L(f (x), y)]] [E(x,y) =p(x,y|)[L(f(x, y)]] 0.69
max ψ∈A max (複数形 maxs) 0.28
(2) where A is the set of all possible ψ. (2) ここで A は可能なすべての集合である。 0.80
Let us assume that we have ψ = (ψu, ψk), a decomposition of ψ into two latent variables ψu and ψk. ψ = (ψu, ψk) と 2 つの潜在変数 ψu と ψk への ψ の分解があると仮定する。 0.75
Furthermore, let us assume that ψu controls for unknown features of the image, and ψk controls for known features of the image such as the camera pose, or the object position with respect to the camera. さらに、ψu が画像の未知の特徴を制御し、ψk がカメラのポーズやカメラに対する物体の位置などの既知の特徴を制御していると仮定する。 0.60
We can write the average risk as: 平均的なリスクを次のように書くことができます 0.55
Eψu∼a[Eψk∼b[E(x,y)∼p(x,y|ψu,ψk)[L(f (x), y)]]], eψu]a[eψk]b[e(x,y)]p(x,y|ψu,ψk)[l(f(x,y)],] 0.70
(3) where b is the distribution of ψk. 3) ここで b は ψk の分布である。 0.84
In most scenarios, we do not have access to the real data distribution p and cannot sample from it at will. ほとんどのシナリオでは、実際のデータ配布pにアクセスできず、必要に応じてサンプルを採取することはできません。 0.71
Additionally, it is very difficult to control the known latent variable ψk when generating data, and we do not even know what factors are hidden in the variable ψu, much less how to control it. さらに、データを生成する際に既知の潜在変数 ψk を制御することは非常に困難であり、変数 ψu に隠されている因子さえも分かっていない。 0.71
Using simulated data we are able to fully control the generative process. シミュレーションデータを使用することで、生成プロセスを完全に制御することができます。 0.63
A simulator samples data (x, y) ∼ q(x, y|ρ), where q is the simulated data distribution and we have complete knowledge over the latent variable ρ. シミュレーターはデータ (x, y) = q(x, y|ρ) をサンプリングし、q は擬似データ分布であり、潜在変数 ρ について完全な知識を持つ。 0.83
We are able to search for adversarial examples and compute estimates of the mean and worst-case risks using this simulator. 我々は,このシミュレータを用いて,逆例を探索し,平均および最悪のリスクの推定値を計算することができる。 0.68
For example, the parameter ρ∗ that maximizes the risk is written as follows: 例えば、リスクを最大化するパラメータ ρ∗ は次のように記述される。 0.78
max ρ∈C max (複数形 maxs) 0.28
[E(x,y)∼q(x,y|ρ)[L(f (x), y)]] [E(x,y) =q(x,y|ρ)[L(f(x, y)]] 0.80
(4) where C is the space of all possible ρ. (4) ここで C はすべての可能な ρ の空間である。 0.79
We can find ˆρ∗ and estimate of ρ∗ by sampling (albeit inefficiently). ρ∗ と ρ∗ のサンプリングによって推定できる(非効率ではあるが)。 0.64
In our case we are working in a less restrictive scenario since we do not try to find the global maximum ρ∗, instead we try to find any ρ where E(x,y)∼q(x,y|ρ)[L(f (x), y)] is above the misclassification threshold. 我々の場合、大域的な最大 ρ∗ を見つけようとするのではなく、E(x,y) =q(x,y|ρ)[L(f(x, y)] が誤分類しきい値を超えるような ρ を見つけようとするため、より制限的なシナリオで作業している。 0.79
If we assume that the distributions p and q are similar enough we can use the knowledge gathered in simulation to understand the possibilities of failure in the real world. 分布 p と q が十分類似していると仮定すると、シミュレーションで集めた知識を使って実世界の失敗の可能性を理解することができる。 0.86
Essentially, this is a different kind of domain shift problem. 本質的に、これは異なるタイプのドメインシフト問題である。 0.78
In a traditional setting of transfer learning between domains, we are concerned about minimizing the risk on a target domain by training on a source domain. 従来のドメイン間の転送学習では、ソースドメインでのトレーニングによってターゲットドメインのリスクを最小化することに関心があります。 0.85
In the binary classification case, let us define a domain as a pair consisting of a distribution p on inputs X and a labeling function gp : X → [0, 1]. 二項分類の場合、入力 X 上の分布 p とラベル関数 gp : X → [0, 1] からなる対として領域を定義する。 0.72
We consider the real domain and the simulated domain denoted by (p, gp) and (q, gq) respectively. 実領域とシミュレーション領域はそれぞれ (p, gp) と (q, gq) で表される。
訳抜け防止モード: 実領域と (p,) で表されるシミュレート領域を考える。 gp ) と (q , gq ) がそれぞれであった。
0.64
We also introduce a hypothesis that is a function h : X → {0, 1}. また、関数 h : x → {0, 1} である仮説も導入する。 0.73
We can write the risk of this hypothesis on p as: この仮説のリスクを p に次のように書くことができる。 0.71
p(h, gp) = Ex∼p[|h(x) − gp(x)|] p(h, gp) = ex\p[|h(x) − gp(x)|] 0.81
(5) 3 (5) 3 0.85
英語(論文から抽出)日本語訳スコア
In traditional domain adaptation from simulation to reality, we seek to learn on distribution q and generalize to distribution p. We want to find a hypothesis that minimizes the risk on the target real world distribution p(h, gp) by training on samples from q. シミュレーションから現実への伝統的な領域適応では、分布 q について学び、分布 p に一般化しようとする。
訳抜け防止モード: シミュレーションから現実への伝統的な領域適応において、分布 q について学ぶことを目指す 分布 p に一般化します q のサンプルのトレーニングにより、対象の実世界の分布 (p(h, gp )) に対するリスクを最小化する。
0.85
In our setting, we do not train on synthetic samples. 私たちの設定では、私たちは合成サンプルを訓練しません。 0.63
Instead we want to find a relationship between testing a hypothesis h on samples from distribution q and testing h on samples from p. There exist bound results for the risks p(h, gp) and q(h, gq) in the work of Ben-David et al [4]: 代わりに、分布 q のサンプルに対する仮説 h のテストと p のサンプルにおける h の試験の間に関係を見出したい。ben-david et al [4] の仕事において、リスク :p(h, gp) と :q(h, gq) のバウンド結果が存在する。 0.78
p(h, gp) < q(h, gq) + d1(q, p) + min{Ep[|gq(x) − gp(x)|], Eq[|gq(x) − gp(x)|]}, Ep(h, gp) < shq(h, gq) + d1(q, p) + min{Ep[|gq(x) − gp(x)|], Eq[|gq(x) − gp(x)|]} である。
訳抜け防止モード: p(h, gp ) < sq(h, gq ) + d1(q, ) である。 p ) + min{ep[|gq(x ) − gp(x)| ], eq[|gq(x ) − gp(x)| ] },,
0.87
(6) where d1 is the variation divergence. (6) d1 が変動ばらつきである場合。 0.75
The second term of the right hand side quantifies the difference between distributions q and p, and the third term of the right hand side is the difference between the labeling functions across domains, which is expected to be small. 右辺の第二項は分布 q と p の差を定量化し、右辺の第三項は、小さくなると予想される領域間のラベル付け関数の差である。 0.61
Since this bound characterizes the cross-domain generalization error and q(h, gq) will usually be minimized by the learning algorithm, it is useful for studying transfer learning between domains. この境界はクロスドメイン一般化誤差を特徴づけるものであり、通常、学習アルゴリズムによって最小化されるので、ドメイン間の移動学習を研究するのに有用である。 0.72
There are some differences in our scenario since for us h is a fixed function that has been trained on the target domain and we would like to talk about individual examples instead of overall risk over distributions. 私たちのシナリオにはいくつかの違いがあります。hはターゲットドメインでトレーニングされた固定関数であり、ディストリビューション全体に対するリスクではなく、個々の例について話したいと思います。
訳抜け防止モード: h は対象ドメイン上でトレーニングされた固定関数であるため、シナリオにはいくつかの違いがある。 分布の全体的なリスクではなく 個々の例について話したいと思います
0.75
Also, the bound is proven for a binary classification problem, whereas our target scenario can be multi-class classification or regression. また、この境界は二項分類問題に対して証明されるが、対象シナリオは多クラス分類や回帰である。 0.72
Assume there exists a mapping τ : C → A (where A is the set of all possible ρ), that maps the simulated latent variables to real latent variables ψ = τ (ρ). a がすべての可能な ρ の集合である)写像 τ : c → a が存在して、シミュレーションされた潜在変数を実潜在変数 ψ = τ (ρ) に写像すると仮定する。 0.82
In order for adversarial examples in the simulator domain to be informative in the real domain, we want to have a simulator such that: シミュレータドメインの敵対的な例が実際のドメインで情報を提供するために、私たちは次のようなシミュレータを持ちたいと思っています。 0.67
P(xs,ys)∼q(xs,ys|ρ),(xr,yr)∼p(xr,yr|τ (ρ))[|L(xs, ys) − L(xr, yr)| < ] > θ p(xs, ys)-q(xs, ys|ρ),(xr, yr)-p(xr, yr|τ(ρ))[|l(xs, ys) − l(xr, yr)| < s] > θ である。 0.83
(7) where  is small and θ ∈ [0, 1] is large. (7) が小さいとき、θ ∈ [0, 1] は大きい。 0.69
This way, high-loss examples found in the semantic image manifold using simulation have a high probability of transferring to the real world. このように、シミュレーションを用いたセマンティックイメージ多様体で見られる高損失例は、実世界への転送の確率が高い。 0.73
Since the simulator and real domain are different, this is a moderately strong assumption. シミュレータと実領域は異なるので、これは適度に強い仮定である。 0.69
Nevertheless, we show cases where this assumption holds in our experimental evaluations in Section 4.3. それにもかかわらず、この仮定が実験的な評価に当てはまる場合をセクション4.3で示します。
訳抜け防止モード: それでも私たちは この仮定は、第4.3節の実験的評価に当てはまる。
0.67
Finding Adversarial Parameters Our task is then to find ρ such that the loss over samples generated with this latent variable is over the misclasification threshold T . 逆パラメータを見つける 我々のタスクは、この潜在変数で生成されたサンプルの損失が誤識別しきい値 t を超えるような ρ を見つけることである。 0.69
One of the main difficulties in searching for latent variables that fulfill this condition is that in general the simulator q is nondifferentiable. この条件を満たす潜在変数を探索する主な難しさの1つは、一般にシミュレータ q が微分不可能であることである。 0.70
Thus, we turn to black-box optimization methods to search for adversarial parameters. そこで,ブラックボックス最適化法を用いて,逆パラメータを探索する。 0.68
Specifically, we use policy gradients [45] in order to find such parameters. 具体的には、このようなパラメータを見つけるためにポリシー勾配 [45] を使用します。 0.66
We define a policy πω parameterized by ω that can sample simulator parameters ρ ∼ πω(ρ). ω でパラメータ化されたポリシー πω を定義し、パラメータ ρ > πω(ρ) をサンプリングできる。 0.72
We train this policy to generate simulator parameters that generate samples that obtain high loss when fed to the machine learning model f. For this we define a reward R that is equal to the negative loss L and we want to find the parameters ω that maximize J(ω) = Eρ∼πω [R]. ここでは、負の損失 L に等しい報酬 R を定義し、J(ω) = Eρ πω [R] を最大化するパラメータ ω を求める。
訳抜け防止モード: 我々はこのポリシーをトレーニングし、サンプルを生成するシミュレーターパラメータを生成する。 高い損失を得る このために、負の損失 L に等しい報酬 R を定義する。 そして、J(ω ) = Eρ πω [ R ] を最大化するパラメータ ω を求めます。
0.75
Following the REINFORCE rule we obtain gradients for updating ω as ReINFORCEルールに従って、ω を更新する勾配を得る。 0.68
An unbiased, empirical estimate of the above quantity is 上記の量の偏見のない経験的な見積もりは 0.72
(cid:2)∇ω log(πω)R(ρ)(cid:3) . (cid:2) ω log(πω)R(ρ)(cid:3)。 0.82
∇ωJ(ω) = Eρ∼πω K(cid:88) ωj(ω) = eρ πω k(cid:88) 0.72
∇ω log(πω) ˆAk , σω log(πω) で表される。 0.53
k=1 L(ω) = k=1 L(ω) = 0.72
1 K (8) (9) 1K (8) (9) 0.81
where ˆAk = R(ωk) − β is the advantage estimate, β is a baseline, K is the number of different parameters ρ sampled in one policy forward pass and R(ρk) designates the reward obtained by evaluating f on (xk, yk) ∼ q(xk, yk|ρk). sak = r(ωk) − β が有利な推定値であり、β はベースラインであり、k は1つのポリシーフォワードパスでサンプリングされた異なるパラメータ ρ の数であり、r(ρk) は (xk, yk) 上の f の評価によって得られる報酬を指定する。 0.85
We show all of the steps of our method in Algorithm 1 and we show an illustration of our method applied to the face verification scenario in Figure 1. 提案手法のすべてのステップをアルゴリズム1で示すとともに,図1の顔認証シナリオに適用した手法の例を示す。 0.74
3 Finding Adversarial Regions Here we describe our method to find adversarial regions. 対立領域の発見3 本稿では,敵領域を見つける方法について述べる。 0.65
Once an adversarial simulator latent vector ρadv ∈ Rn have been found using Algorithm 1 we define a graph G = (V, E). アルゴリズム1を用いて、逆シミュレーションの潜在ベクトル ρadv ∈ rn が見つかると、グラフ g = (v, e) を定義する。 0.79
V are the vertices of the graph, obtained by discretizing the space around the adversarial point in grid with spacing ν between vertices. V はグラフの頂点であり、頂点間のν の間隔で格子内の逆点の周りの空間を離散化することによって得られる。 0.68
The edges E of the graph connect neighboring vectors, with each vector having グラフの辺 E は近傍のベクトルを連結し、各ベクトルは有する。 0.84
4 4 0.85
英語(論文から抽出)日本語訳スコア
Algorithm 1: Our adversarial testing approach using policy gradients. アルゴリズム1:ポリシー勾配を用いた逆テストアプローチ。 0.73
Result: adversarial simulator parameters ρk and adversarial sample xk for iteration=1,2,... do 結果:adversarial simulator parameters ρk and adversarial sample xk for iteration=1,2,... do 0.89
Generate K simulator parameters ρk ∼ πω(ρk); Generate K samples (xk, yk) ∼ q(xk, yk|ρk) Test the discriminative model and obtain K losses L(f (xk), yk) if ∃k ∈ {1, ..., K}; L(f (xk), yk) > T then end Compute rewards R(ρk) Compute the advantage estimate ˆAk = R(ρk) − β Update ω via equation 9 k シミュレータパラメータ ρk と πω(ρk) を生成し、k のサンプル (xk, yk) を生成 q(xk, yk|ρk) で識別モデルをテストし、 sk ∈ {1, ..., k}; l(f(xk, yk) > t であれば k の損失 l(f (xk), yk) を得る。
訳抜け防止モード: K シミュレータパラメータ ρk > πω(ρk ) を生成する; K サンプル (xk,) を生成する。 yk ) = q(xk, yk|ρk ) 判別モデルをテストする すると、K の損失 L(f ( xk ), yk ) を得る; L(f ( xk ), yk ) > T のとき、計算報酬は終了する。 R(ρk ) 等式 9 を通し、有利な見積を演算する。 >Ak = R(ρk ) − β Update ω
0.87
end Terminate and yield adversarial sample xk and adversarial simulator parameters ρk 終わり 逆数サンプルxkと逆数シミュレータパラメータρkの決定と収率 0.74
2n neighbors. We find the connected region of adversarial examples Radv that is seeded by ρadv by following Algorithm 2. 隣人2人。 ρadv によってシードされた逆例 radv の連結領域を次のアルゴリズム 2 で求める。 0.70
In essence, our method follows the general idea of an area flooding algorithm [25, 40] with two main differences. 本質的に,本手法は,2つの大きな違いがある領域浸水アルゴリズム[25, 40]の一般的な考え方に従う。 0.75
First, that we discretize a continuous space that is n-dimensional instead of working on binary 2-dimensional image, and second, that we check for sample membership of Radv by testing whether the model loss is higher than the adversarial threshold L(f (x), y) > T . まず, 2次元画像ではなく n-次元の連続空間を判別し,次にモデル損失が逆しきい値 l(f(x), y) > t よりも高いかどうかを検証し,radv のサンプルメンバーシップをチェックする。 0.72
Algorithm 2: Finding connected regions of adversarial examples. アルゴリズム2: 敵の例の連結領域を見つける。 0.68
Result: connected region of adversarial examples Radv Data: seed adversarial simulator parameters ρadv Radv = {ρadv} Initialize a stack χ. 結果: 関連例の連結領域 radv data: seed adversarial simulator parameters ρadv radv = {ρadv} スタックを初期化する。 0.83
Push 2n neighbors of ρadv to χ. for i=1,2,... do i=1,2,... do に対して ρadv の 2n 隣人を y にプッシュする 0.58
Pop ρi from χ Sample (xi, yi) ∼ q(xi, yi|ρi) Test the discriminative model and obtain loss L(f (xk), yk) if L(f (xk), yk) > T then Radv = Radv ∪ {ρi} Push all neighbors of ρi that have not been visited to χ もし L(f(xk), yk) > T であれば、Radv = Radv > {ρi} は ρi の隣人を y に訪ねていないすべての隣人を押せば、その判別モデルを試して L(f(xk, yk) を得る。
訳抜け防止モード: xi ( xi, yi ) > q(xi) から ρi を抽出する。 yi|ρi ) 判別モデルを検証し、L(f ( xk ) , yk ) if L(f ( xk ) , yk ) > T ならば、Radv = Radv > { ρi } に訪問されていない ρi の隣人を全て押す。
0.85
end end 4 Experimental Results 終わり 終わり 4 実験結果 0.77
4.1 Controllable Face Simulation 4.1 制御可能な顔シミュレーション 0.61
We use the FLAME face model [23] as a controllable face simulator with the Basel texture model [31]. 火炎面モデル [23] をバーゼルテクスチャモデル [31] を用いた制御可能な顔シミュレータとして使用する。 0.81
FLAME uses a linear shape space trained from 3,800 3D scans of human heads and combines this linear shape space with an articulated jaw, neck, and eyeballs, pose-dependent corrective blendshapes, and additional global expression blendshapes. flameは、人間の頭部の3,800枚の3dスキャンから訓練された直線形状空間を使用し、この直線形状空間と顎、首、眼球、ポーズ依存の矯正ブレンド形状、および追加のグローバル表現ブレンド形状を組み合わせる。 0.68
In this way, using shape and texture components we can generate faces with different identities. このようにして、形状とテクスチャ成分を用いて、異なるアイデンティティを持つ顔を生成することができる。
訳抜け防止モード: このように。 形状やテクスチャの要素を使って 異なるアイデンティティを持つ顔を 生成できるのです
0.72
The synthetic faces that are generated in our work are new and do not mimic any existing person’s features. 私たちの作品で生成された合成顔は新しいもので、既存の人の特徴を模倣していません。 0.72
By changing the pose and expression components we can add variability to these faces. ポーズと式コンポーネントを変更することで、これらの顔に可変性を追加できます。 0.61
Moreover, we have full control over the scene lighting and the head and camera pose and position. また,シーン照明と頭部とカメラのポーズと位置を完全に制御する。 0.67
In order to render our scene we use the PyTorch3D rendering framework. シーンのレンダリングには、PyTorch3Dレンダリングフレームワークを使用します。 0.65
We extract the corresponding shape, texture and expression components from the real faces of the CASIA WebFace dataset using DECA [9]. DECA[9]を用いてCASIA WebFaceデータセットの実際の顔から,対応する形状,テクスチャ,表現成分を抽出する。 0.83
5 5 0.85
英語(論文から抽出)日本語訳スコア
Figure 1: An illustration of our method applied to the face verification scenario. 図1: 顔認証シナリオに適用した手法の例示。 0.66
The simulator is conditioned on parameters that are generated by the policy. シミュレータはポリシーによって生成されるパラメータに条件付けされる。 0.81
A pair of images of the same identity are generated. 同じアイデンティティの1対のイメージが生成される。 0.72
Face verification is run on this image pair using the face recognition network that is to be diagnosed. この画像ペア上では、診断対象の顔認識ネットワークを使用して顔認証を行う。 0.75
A reward is computed based on the correct or incorrect prediction of the network and the policy parameters are updated accordingly. ネットワークの正しいまたは誤った予測に基づいて報酬を算出し、それに応じてポリシーパラメータを更新する。 0.74
4.2 Models, Datasets and Infrastructure 4.2 モデル,データセット,インフラストラクチャ 0.72
In our experiments we use the CASIA WebFace [47] dataset for training the face recognition models and the LFW [18] dataset for real-world data testing. 実験では,顔認識モデルのトレーニングにはCASIA WebFace [47]データセット,実世界のデータテストにはLFW [18]データセットを使用しました。 0.82
We use a Convolutional Block Attention Module (CBAM) [46] ResNet50 with CosFace [44] loss as the face recognition model. convolutional block attention module (cbam) [46] resnet50 と cosface [44] の損失を顔認識モデルとして使用する。 0.79
We use a multivariate π = 0.05 × I and µπ is learned. 多変量 π = 0.05 × i を用いると μπ が学習される。 0.76
Gaussian policy π(ρ) = N (µπ, σ2 We use a GeForce RTX 2080 GPU with 11GB of memory to perform all of our experiments. ガウスのポリシー π(ρ) = n (μπ, σ2) 我々はすべての実験を実行するために11gbのメモリを持つgeforce rtx 2080 gpuを使用する。 0.74
The policy, the face recognition network, the face model decoders and the renderer run on the same GPU. ポリシー、顔認識ネットワーク、フェイスモデルデコーダ、レンダラーは同じGPU上で動作する。
訳抜け防止モード: フェースモデルデコーダのポリシー, 顔認識ネットワーク そしてレンダラーは同じGPUで動作します。
0.61
π) where the variance is fixed σ2 π) 分散が σ2 で固定されたとき 0.69
4.3 Testing Weakened Models 4.3 弱化モデルのテスト 0.64
We present a way to verify that knowledge from simulated weaknesses translates to real-world weaknesses. シミュレーションされた弱点からの知識が現実世界の弱点に変換されることを示す方法を提案する。 0.51
We weaken two networks by training on the CASIA WebFace dataset with images that exhibit a yaw parameter [−∞,−0.5] and [0.5, +∞] filtered out. ヤウパラメータ [−∞,−0.5] と [0.5, +∞] をフィルタリングした画像を用いて, CASIA WebFaceデータセットのトレーニングにより2つのネットワークを弱める。 0.84
We extract the yaw parameter using DECA. DECAを用いてヨーパラメータを抽出する。 0.63
We call these the Negative Yaw Filtered (NYF) and Positive Yaw Filtered (PYF) datasets/networks, respectively. 我々はこれらをNegative Yaw Filtered (NYF) と Positive Yaw Filtered (PYF) と呼ぶ。 0.71
Both datasets have roughly the same number of samples: the Negative Yaw Filtered dataset has 440,448 training samples and the Positive Yaw Filtered dataset has 449,243 samples. 負のyawフィルタ付きデータセットは440,448個のトレーニングサンプルを持ち、正のyawフィルタ付きデータセットは449,243個のサンプルを持つ。 0.82
We also train a Normal network on all of the 491,542 samples of the unfiltered CASIA WebFace dataset. また、フィルタされていないCASIA WebFaceデータセットの491,542サンプルのすべてに対して、正規ネットワークをトレーニングします。 0.55
We then test both the normal network and the yaw-weakened networks on simulated samples. 次に、模擬サンプル上で通常のネットワークとヨー弱ネットワークの両方をテストする。 0.70
We do this by generating two images of a same person, by fixing the shape, texture and expression parameters. 我々は、形状、テクスチャ、表現パラメータを固定することで、同一人物の2つの画像を生成する。 0.78
The first image is a frontal image of the person. 最初の画像は、その人の正面の画像です。 0.81
We vary the yaw component of the second image in the [−1, 1] range, where a −1 and 1 in the yaw component indicate a fully-profile face on the negative and positive sides and plot the resulting cosine similarity computed between the embeddings of the two images. 第2の画像のヤウ成分を[−1, 1]の範囲で変化させ、ヤウ成分の−1,1が負の面と正の面の完全な顔を示し、2つの画像の埋め込み間に計算されたコサイン類似性をプロットする。 0.78
This cosine similarity should be large given that the two images presented are of the same identity. このコサイン類似性は、2つの画像が同じ同一性であることを考えると大きいはずである。 0.69
A low cosine similarity means that the network has less confidence that the images show the same person. 低いコサイン類似性は、ネットワークが画像が同一人物を示すという信頼性が低いことを意味する。 0.72
In Figure 2a, we observe that each yaw-weakened network makes less accurate predictions for images presenting high yaw in their respective weakness intervals. 図2aでは、各ヤウ弱化ネットワークは、それぞれの弱み間隔で高いヤウを示す画像に対して、より精度の低い予測を行う。 0.66
Note that all networks perform almost identically with frontal samples. すべてのネットワークが正面サンプルとほぼ同一に動作することに注意。 0.67
Also, note that the normal network is almost always superior to the two weakened networks. また、通常のネットワークは2つの弱いネットワークよりもほぼ常に優れている。 0.83
This is a natural result of having 10% more training data. これは、10%以上のトレーニングデータを持つ自然な結果です。 0.84
This plot is an average over 25 different identities that we obtain by grid-sampling the first texture and shape components over the range [−σ, σ]. このプロットは、[−σ, σ]の範囲で最初のテクスチャと形状成分をグリッドサンプリングすることで得られる平均25以上の異なるアイデンティティである。 0.77
We compute the area between the curves for the [−1.0,−0.5], [−0.5, 0.5] and [0.5, 1.0] intervals. 曲線間の面積を [−1.0,−0.5], [−0.5, 0.5] および [0.5, 1.0] 間隔で計算する。 0.78
We observe in Table 1 (left) that in the [−1.0,−0.5] yaw range, precisely where the NYF network has been weakened, the area between the Normal-NYF curves is large and the area between the Normal-PYF curves is small. 表1(左)では、[-1.0,−0.5] ヨー幅において、NYF のネットワークが弱くなり、正規-NYF 曲線間の面積が大きく、正規-PYF 曲線間の面積が小さいことを観察する。 0.78
Conversely, in the [0.5, 1.0] range, where PYF has been weakened, we see that the difference between the Normal-PYF curves is large and the Normal-NYF difference is smaller. 逆に、PYFが弱くなった[0.5, 1.0]範囲では、正規-PYF曲線の差が大きく、正規-NYF曲線の差が小さいことが分かる。 0.73
Also, we observe near identical differences between Normal-NYF and Normal-PYF また,Normal-NYFとNormal-PYFのほぼ同一の差異を観察する。 0.66
6 6 0.85
英語(論文から抽出)日本語訳スコア
(a) (b) Figure 2: (a) Recognition cosine similarity between two simulated pairs of the same identity (averaged over 25 different identities). (a) (b) 図2: (a) 同じアイデンティティの2つのシミュレーションペア(平均25以上の異なるid)間のコサインの類似性。 0.83
The first image is frontal and we vary the yaw of the second image. 第1の画像は正面であり、第2の画像のヤウを変える。 0.74
The Negative Yaw Filtered network exhibits less accurate predictions for highly negative yaw images than both the Positive Yaw Filtered and Normal networks. 負のyawフィルタネットワークは、正のyawフィルタネットワークと正のyawフィルタネットワークの両方よりも、非常に負のyawイメージに対する精度の低い予測を示す。 0.62
The Positive Yaw Filtered network exhibits less accurate predictions for highly positive yaw images than both the Negative Yaw Filtered and Normal networks. 正のyawフィルタネットワークは、負のyawフィルタと正規のネットワークの両方よりも高い正のyaw画像に対する精度の予測が少ない。 0.75
(b) A set of adversarial testing runs. (b) 逆テストのセットが実行されます。 0.68
Yellow-Red curves denote successful runs and Blue curves denote unsuccessful attempts. 黄色と赤の曲線は成功し、青の曲線は失敗を示す。 0.55
In most runs adversarial testing quickly locks onto specific weaknesses and produces adversarial examples in few iterations. ほとんどの場合、敵のテストを素早く特定の弱点にロックし、いくつかのイテレーションで敵の例を生成する。 0.49
For unsuccessful attempts, adversarial testing converges to local minima that are not below the threshold. 失敗した試みでは、敵検定はしきい値以下でない局所ミニマに収束する。 0.58
Table 1: Quantitative differences between evaluation of the purposefully weakened Negative Yaw Filtered (NYF) and Positive Yaw Filtered (PYF) and the Normal on synthetic faces (bold values for emphasis). 表1: 意図的に弱められた負のヨーフィルター(nyf)と正のヨーフィルター(pyf)の評価と、合成顔の正常値(強調のためのボルド値)との定量的差異。 0.76
Blue values in the table on the right mean the differences are statistically significant with p < 0.01. 右平均の表の青い値は、p < 0.01 で統計的に有意である。 0.77
↓ Models / Yaw Interval → [-1.0, -0.5] シュモデル / ヤウインターバル → [-1.0, -0.5] 0.76
Area Between Curves [-0.5, 0.5] 曲線間の面積 [-0.5, 0.5] 0.76
[0.5, 1.0] [0.5, 1.0] 0.71
Normal:NYF Normal:PYF Normal:NYF Normal:PYF 0.85
8.69 2.71 2.83 2.76 8.69 2.71 2.83 2.76 0.50
4.68 8.46 ↓ Models / Yaw → -1.0 0.18 0.01 -0.17 4.68 8.46 モデル / yaw → -1.0 0.18 0.01 -0.17 0.53
Normal-NYF Normal-PYF NYF-PYF 正常NYF標準PYFNYF-PYF 0.58
Mean Difference 1.0 0.10 0.16 0.06 平均差1.0.10.16.06 0.50
0.0 0.01 0.00 -0.01 0.0 0.01 0.00 -0.01 0.42
in the [−0.5, 0.5], which is a consequence of the lesser amount of training data of NYF and PYF networks. NYFとPYFネットワークのトレーニングデータの少ない量の結果である[-0.5, 0.5]。
訳抜け防止モード: in [-0.5, 0.5 ] これは、NYFとPYFネットワークのトレーニングデータが少ない結果である。
0.75
We also compute pairwise mean differences for the different populations of Normal, NYF and PYF networks and present them in Table 1 (right). また、正規ネットワーク、nyfネットワーク、pyfネットワークの異なる集団についてペアワイズ平均差を計算し、テーブル1(右)に表示する。 0.72
We highlight in blue the statistically significant differences. 統計的に重要な違いを青で強調します。 0.65
We have similar results as in Table 1 (left). 表1(左)と同様の結果が得られます。 0.74
This evidence indicates that when a weakness is purposefully created in a network by filtering out key samples in the real training dataset, we can retrieve this weakness using our face simulator. この証拠は、実際のトレーニングデータセットのキーサンプルをフィルタリングすることで、ネットワーク内の弱点を意図的に生成した場合、顔シミュレータを使ってこの弱点を検索できることを示している。 0.67
This gives credence to the idea that we are able to find simulated adversarial examples in the semantic image manifold that will give us knowledge about adversarial examples in the real world. このことは、実世界の逆例に関する知識を与える意味的イメージ多様体において、シミュレーションされた逆例を見つけることができるという考えを信ずる。 0.61
4.4 Simulated Adversarial Testing of Face Recognition Models 4.4 顔認識モデルの模擬逆検定 0.83
In this section we evaluate adversarial testing of face recognition models in the face verification scenario. 本稿では,顔認証シナリオにおける顔認識モデルの対角テストを評価する。 0.85
Specifically, we generate samples using the FLAME face model and our proposed search algorithm that fool the face recognition model. 具体的には,フレイムフェイスモデルと提案する顔認識モデルを騙す探索アルゴリズムを用いてサンプルを生成する。 0.89
We train a CBAM-ResNet50 on CASIA WebFace for 20 epochs. CBAM-ResNet50をCASIA WebFace上で20時間トレーニングします。 0.68
This network achieves a 99.1% accuracy on the LFW test set for the face verification task. このネットワークは、顔認証タスクのLFWテストセットに対して99.1%の精度を達成する。 0.70
The evaluation task is face verification between two synthetic images of a same person’s face, one frontal and one profile image. 評価課題は、同一人物の顔と1つの正面と1つのプロフィール画像の合成画像間の顔検証である。 0.76
We vary the first 15 shape parameters as well as the first 15 texture parameters for our generated identities, ranging from −2σ and 2σ where σ is the standard deviation of each parameter in question. 最初の15の形状パラメータと、生成したアイデンティティに対する最初の15のテクスチャパラメータは、σが問題となる各パラメータの標準偏差である −2σ と 2σ まで様々である。 0.87
7 7 0.85
英語(論文から抽出)日本語訳スコア
Table 2: CBAM-ResNet50 face verification accuracy over synthetic datasets generated by random sampling or by adversarial testing (Adv. 表2:CBAM-ResNet50 ランダムサンプリングまたは逆検定により生成された合成データセットに対する顔認証精度(Adv)。 0.68
Testing). Method Accuracy ↓ Avg. テスト)。 方法 正確さはAvg。 0.66
Cosine Similarity ↓ Random Sampling コサインの類似性 ランダムサンプリング 0.65
Adv. Testing 99% 36.5% Adv テスト 99% 36.5% 0.70
0.518 0.263 0.518 0.263 0.50
Figure 3: Face models obtained using adversarial testing (above) and random parameter sampling (below). 図3: 逆検定(上)とランダムパラメータサンプリング(下)を用いて得られた顔モデル。 0.84
The border line colors denote whether the face recognition network can successfully verify the pairs, with red denoting a failed verification and green denoting a successful verification. 境界色は、顔認証ネットワークがペアの検証に成功するかどうかを示し、赤は検証に失敗し、緑は検証に成功することを示す。 0.69
We obtain adversarial samples using our adversarial testing method more consistently than with random parameter sampling. 逆検定法をランダムなパラメータサンプリングよりも一貫して用いた逆検定を行う。
訳抜け防止モード: 我々は敵のサンプルを得る ランダムパラメータサンプリングよりも 逆検法を一貫して使います
0.79
Some recurring features of adversarial faces are ambiguous frontal/profile features (e g long nose, tucked jaw), pale/dark skin colors and left/right asymmetries. 対向顔の特徴として、不明瞭な前頭/顕著な特徴(例えば、長い鼻、タックした顎)、淡黒の肌の色、左右の非対称性がある。 0.54
We propose testing the network using 100 identities obtained by uniformly sampling these parameters. これらのパラメータを均一にサンプリングして得られた100のアイデンティティを用いてネットワークをテストする。 0.64
We also test the network using 100 runs of our adversarial testing algorithm (200 maximum iterations). 私たちはまた、敵のテストアルゴリズム(最大200回のイテレーション)の100実行を使ってネットワークをテストします。 0.69
In Table 2, we show that the random sampling testing regime achieves an accuracy of 99%, which is very close to the 99.1% real-world accuracy of the network on the LFW test set. 表2では、ランダムサンプリングテスト方式が99%の精度を達成し、lfwテストセット上のネットワークの99.1%の実世界の精度に非常に近いことを示した。 0.78
Using adversarial testing, the network exhibits an accuracy of 36.5%, which is a marked drop in verification performance. 対角テストを用いて、ネットワークの精度は36.5%であり、検証性能は著しく低下している。 0.76
We also compute the average cosine similarity between pairs, showing that adversarial testing generates highly adversarial samples (success threshold T = 0.298) whereas random samples are highly non-adversarial on average. また, 対間の平均コサイン類似度を計算し, 逆テストが高度に逆向きなサンプルを生成することを示した(成功しきい値t = 0.298)。 0.77
In Figure 3 we show a subset of the generated samples for both the adversarial testing (above) and random sampling (below). 図3では、逆検定(上)とランダムサンプリング(下)の両方に対して生成されたサンプルのサブセットを示す。 0.81
In Figure 2b we show the cosine similarity curves for a random subset of the adversarial testing runs, showing both the attempts that produce adversarial examples in few iterations and unsuccessful attempts that converge to local minima without becoming adversarial. 図2bでは、逆検定のランダムな部分集合に対するコサイン類似性曲線を示し、数回の反復で逆検例を生成する試みと、逆検定をせずに局所ミニマに収束する試みの両方を示す。
訳抜け防止モード: 図2bでは、逆検定の実行のランダムな部分集合に対するコサイン類似性曲線を示す。 敵の例を数回繰り返して示します 逆境に陥ることなく 地元のミニマに収まる試みは失敗しました
0.73
4.5 Finding Adversarial Regions of Face Recognition Models 4.5 顔認識モデルの逆領域の探索 0.74
We use our method described in Algorithm 2 to find adversarial regions in simulation for face recognition models. 顔認識モデルのシミュレーションにおいて,アルゴリズム2で記述した手法を用いて敵領域を探索する。 0.78
We do this in the face verification scenario between a frontal image with neutral expression and a profile image with an open jaw. 本研究は、中性表現を持つ正面像と開放顎を有するプロファイル像との顔検証シナリオにおいて行う。 0.73
We vary the first shape and texture parameters to find an adversarial sample, and then find the connected components to those seed parameters. 最初の形状とテクスチャパラメータを変えて、逆のサンプルを見つけて、それらのシードパラメータの連結コンポーネントを見つけます。 0.70
We also grid sample both parameters in order to plot the synthetic sample surface. また, 合成試料表面をプロットするために, 両方のパラメータをグリッド化する。 0.76
We show the surface 私たちは表面を見せます 0.64
8 8 0.85
英語(論文から抽出)日本語訳スコア
Figure 4: Our algorithm finds the adversarial region (red) in the shape-texture landscape (blue). 図4: このアルゴリズムは, 形状・テクスチュアランドスケープ(青)の対向領域(赤)を探索する。 0.82
We also plot the adversarial threshold plane (orange). また、逆しきい値平面(オレンジ)をプロットする。 0.69
of all synthetic samples (blue), along with the adversarial region (red) and the adversarial threshold plane (orange) in Figure 4. すべての合成試料(青)のうち、図4の対向領域(赤)と対向しきい値面(オレンジ)と共に。 0.75
5 Related Work Testing computer vision models on synthetic data is not a new idea [33, 28, 19, 21, 22, 37], although there is a relative paucity of work in this area. 5 関連作業 コンピュータービジョンモデルを合成データ上でテストするのは、[33, 28, 19, 21, 22 22 22 37]という新しいアイデアではない。
訳抜け防止モード: 5 関連作業 合成データを用いたコンピュータビジョンモデルのテスト 新しいアイデアではありません [33, 28, 19] 21, 22, 37] この辺りには 相対的な仕事の好奇心がある。
0.81
More common are investigations on training models on synthetic data [11, 35, 34, 8]. より一般的なのは,合成データ [11,35,34,8] のトレーニングモデルに関する調査である。 0.76
Recent works even learn to adapt the generative distribution of synthetic data in order for the model to learn better representations [36, 26, 12, 3, 20, 2] or adapt the pixels or features of the synthetic data to bridge the synthetic-to-real domain gap [13, 7, 43, 42, 17, 32]. 最近の研究は、モデルがより良い表現(36,26,12,3,20,2]を学ぶために合成データの生成的分布に適応するか、合成データのピクセルまたは特徴に適応して合成-実領域間ギャップ [13,7,43,42,17,32] を橋渡しする。 0.80
In contrast to this body of work, we propose to search the parameter space of a simulator in order to test the model in an adversarial manner. 本研究は,本研究とは対照的に,逆方向のモデルをテストするためにシミュレータのパラメータ空間を探索することを提案する。 0.75
There is very interesting work that adapts generative distributions in order to test models [1, 49, 39]. モデル[1, 49, 39]をテストするために生成分布を適用する非常に興味深い仕事があります。 0.80
In contrast to [49, 39] we test computer vision models that are trained on real data, which is a more challenging scenario since the domain shift problem has to be described and overcome. 一方、[49, 39]では、実際のデータに基づいてトレーニングされたコンピュータビジョンモデルをテストしています。
訳抜け防止モード: 49, 39] とは対照的に、実際のデータでトレーニングされたコンピュータビジョンモデルをテストします。 これはドメインシフトの問題を記述し克服する必要があるため、より難しいシナリオです。
0.74
Different from [49, 1, 39] we work on the domain of face recognition instead of object classification or VQA, where we have a higher number of simulator parameters including shape, expression, texture, lighting and pose parameters. 物体分類やVQAの代わりに顔認識の領域で作業している [49, 1, 39] とは違って,形状,表現,テクスチャ,照明,ポーズパラメータなど,多くのシミュレータパラメータが存在する。 0.79
We search the parameter landscape using a continuous policy that explores all parameters simultaneously, which is important since model performance does not vary independently with each parameter (as Figure 4 shows), and discrete changes in parameter space can yield high loss changes due to gradient sharpness. モデルの性能は各パラメータとは独立に変化せず(図4のように)、パラメータ空間の離散的な変化は勾配の鋭さによって大きな損失をもたらす可能性があるため、すべてのパラメータを同時に探索する連続ポリシーを用いてパラメータランドスケープを探索する。 0.83
A final difference with these and work on traditional adversarial attacks [41, 30, 6, 15, 27] is that we present a method that not only finds one isolated adversarial latent vector, but locates regions of them. これらとの最後の相違点として,従来の敵攻撃(41,30,6,15,27)では,孤立した敵の潜伏ベクトルを1つ見つけるだけでなく,その領域を特定する方法を提案する。 0.73
6 Conclusion In this work we propose to test machine learning models by searching for semantically realistic adversarial examples using a simulator. 6 結論 本研究では,シミュレータを用いて,意味論的に現実的な逆例を探索し,機械学習モデルをテストすることを提案する。
訳抜け防止モード: 6 結論 この作品では シミュレータを用いて意味論的に現実的な対向例を探索して機械学習モデルをテストする。
0.74
We present a framework for simulated adversarial testing, as well as a method to find simulated adversarial examples. 本稿では, 模擬逆検定の枠組みと, 模擬逆検定の手法を提案する。 0.55
Finally, we present a method to find connected regions of adversarial examples in the semantic space of latent variables and we evaluate our methods on contemporary face recognition networks using a face simulator. 最後に,潜在変数の意味空間における対向例の連結領域を探索する手法を提案し,顔シミュレータを用いて現代顔認識ネットワーク上での手法を評価する。 0.86
We find that face recognition networks that have real world weaknesses due to biased training sets with respect to pose can be analyzed using controllable simulated faces and these weaknesses can be discerned. ポーズに対する偏りのあるトレーニングセットによる実世界の弱みを有する顔認識ネットワークを,制御可能なシミュレーション顔を用いて解析し,これらの弱さを識別できることを見いだした。 0.76
We also find that contemporary face recognition networks are fooled by specific combinations of simulated face shapes and textures. また、現代の顔認識ネットワークは、模擬顔の形とテクスチャの特定の組み合わせによって騙されていることも判明した。
訳抜け防止モード: これも見当たらない。 現代の顔認識ネットワークは 模擬顔の形とテクスチャの 特定の組み合わせに騙される
0.70
Some recurring features of adversarial faces are ambiguous frontal/profile features (e g long nose, tucked jaw), pale/dark skin colors and left/right asymmetries. 対向顔の特徴として、不明瞭な前頭/顕著な特徴(例えば、長い鼻、タックした顎)、淡黒の肌の色、左右の非対称性がある。 0.54
When such a network is tested using adversarial testing, it’s accuracy plummets compared to random testing or testing on a real-world test set such as LFW. このようなネットワークを敵のテストでテストすると、LFWのような現実世界のテストセットでのランダムなテストやテストと比べて精度が低下する。 0.67
We show evidence that these adversarial examples are not isolated, but part of connected components of adversarial examples in the manifold of semantically plausible images. これらの逆例は孤立しないが、意味論的に可視な画像の多様体における逆例の連結成分の一部であることを示す。
訳抜け防止モード: これらの対立例が孤立していないことを示す。 セマンティック・プラウシブル・イメージの多様体における 逆例の連結成分の一部です
0.66
9 9 0.85
英語(論文から抽出)日本語訳スコア
Broader impact. The plausible negative social consequences of this work are tightly linked with overall negative consequences of facial analysis systems. より広い影響。 この研究の有望な負の社会的帰結は、顔分析システムの全体的な負の帰結と密接に関連している。 0.65
An approach that improves testing for face recognition systems such as the one we propose can be used to improve recognition rates on minorities, persecuted groups and oppressed individuals. 我々の提案するような顔認識システムのテストを改善するアプローチは、マイノリティ、迫害されたグループ、抑圧された個人に対する認識率を改善するために利用できる。 0.74
This is a larger problem acting on any work that can potentially impact facial analysis, and we argue that our work has an asymmetric potential for applications that have a positive social impact. これは、顔分析に影響を及ぼす可能性のあるあらゆる作業に作用する大きな問題であり、私たちの作業には、ポジティブな社会的影響を持つアプリケーションに対して非対称なポテンシャルがある、と我々は主張する。
訳抜け防止モード: これは、顔分析に影響を及ぼす可能性のある作業に作用するより大きな問題です。 私たちの研究には ポジティブな社会的影響を持つ アプリケーションに非対称な可能性がある
0.74
Given that researchers have proven that there exists gender and racial bias of beneficial face analysis systems [5, 14, 16], by better testing such systems these biases can be diagnosed and mitigated, meaning that minorities can more readily benefit from these technologies. 研究者が、有益な顔分析システムの性別と人種的偏見があることを証明したことを考えると、これらの偏見は診断と緩和が可能であり、マイノリティはこれらの技術によりより容易に利益を得ることができる。 0.72
References [1] M. A. Alcorn, Q. Li, Z. Gong, C. Wang, L. Mai, W.-S. Ku, and A. Nguyen. 参照 [1] M. A. Alcorn, Q. Li, Z. Gong, C. Wang, L. Mai, W.S. Ku, A. Nguyen。 0.83
Strike (with) a pose: Neural networks are easily fooled by strange poses of familiar objects. Strike (with) a pose: ニューラルネットワークは、よく知られたオブジェクトの奇妙なポーズに簡単に騙される。 0.68
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 4845–4854, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 4845–4854, 2019。 0.93
[2] O. M. Andrychowicz, B. Baker, M. Chociej, R. Jozefowicz, B. McGrew, J. Pachocki, A. Petron, M. Plappert, G. Powell, A. Ray, et al Learning dexterous in-hand manipulation. [2] O. M. Andrychowicz, B. Baker, M. Chociej, R. Jozefowicz, B. McGrew, J. Pachocki, A. Petron, M. Plappert, G. Powell, A. Ray, et al Learning dexterous in-hand manipulate。 0.88
The International Journal of Robotics Research, 39(1):3–20, 2020. The International Journal of Robotics Research, 39(1):3–20, 2020 0.91
[3] S. Beery, Y. Liu, D. Morris, J. Piavis, A. Kapoor, N. Joshi, M. Meister, and P. Perona. [3]S. Beery、Y. Liu、D. Morris、J. Piavis、A. Kapoor、N. Joshi、M. Meister、P. Perona。
訳抜け防止モード: [3]S. Beery, Y. Liu, D. Morris J. Piavis, A. Kapoor, N. Joshi, M. Meister とP. Perona。
0.95
Synthetic examples improve generalization for rare classes. 合成例はレアクラスの一般化を改善する。 0.61
In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), March 2020. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) 2020年3月。 0.90
[4] S. Ben-David, J. Blitzer, K. Crammer, A. Kulesza, F. Pereira, and J. W. Vaughan. S. Ben-David, J. Blitzer, K. Crammer, A. Kulesza, F. Pereira, J. W. Vaughan. 0.87
A theory of theory (複数形 theorys) 0.53
learning from different domains. 異なる領域から学ぶこと。 0.67
Machine learning, 79(1):151–175, 2010. 機械学習, 79(1):151–175, 2010 0.85
[5] J. Buolamwini and T. Gebru. J. Buolamwini と T. Gebru. 0.65
Gender shades: Intersectional accuracy disparities in commercial gender classification. ジェンダーシェード:商業性分類における交叉精度の差。 0.73
In Conference on fairness, accountability and transparency, pages 77–91, 2018. 公正性、説明責任、透明性に関する会議では、77-91頁。 0.63
[6] N. Carlini and D. Wagner. 6] N. Carlini と D. Wagner. 0.89
Towards evaluating the robustness of neural networks. ニューラルネットワークのロバスト性評価に向けて 0.72
In 2017 IEEE Symposium on Security and Privacy (SP), pages 39–57. 2017年IEEE セキュリティとプライバシに関するシンポジウム (SP) 39-57頁。 0.68
IEEE, 2017. 2017年、IEEE。 0.63
[7] Y.-H. Chen, W.-Y. [7]Y.-H. Chen, W.-Y. 0.74
Chen, Y.-T. Chen, B.-C. Tsai, Y.-C. Frank Wang, and M. Sun. Chen, Y.-T. Chen, B.-C. Tsai, Y.-C. Frank Wang, M. Sun 0.78
No more discrimination: Cross city adaptation of road scene segmenters. no more discrimination: cross city adaptation of road scene segmenters (英語) 0.87
In The IEEE International Conference on Computer Vision (ICCV), Oct 2017. 2017年10月、IEEE International Conference on Computer Vision (ICCV)で発表された。 0.75
[8] A. Dosovitskiy, G. Ros, F. Codevilla, A. Lopez, and V. Koltun. A. Dosovitskiy, G. Ros, F. Codevilla, A. Lopez, V. Koltun. 0.81
Carla: An open urban driving カーラ:オープンな都市交通 0.52
simulator. In Conference on robot learning, pages 1–16. シミュレーター ロボット学習に関する会議では、1-16頁。 0.54
PMLR, 2017. 2017年、PMLR。 0.66
[9] Y. Feng, H. Feng, M. J. 9] y. feng, h. feng, m. j. 0.84
Black, and T. Bolkart. ブラック、T・ボルカート。 0.59
Learning an animatable detailed 3D face model from in-the-wild images. 実写画像から詳細な3d顔モデルを学ぶ。 0.68
ACM Transactions on Graphics (ToG), Proc. ACM Transactions on Graphics (ToG), Proc 0.66
SIGGRAPH, 40(4):88:1–88:13, Aug. 2021. SIGGRAPH, 40(4):88:1-88:13, Aug 2021。 0.69
[10] G. Gafni, J. Thies, M. Zollhöfer, and M. Nießner. G. Gafni, J. Thies, M. Zollhöfer, M. Nießner. 0.71
Dynamic neural radiance fields for monocular 単眼の動的神経放射場 0.60
4d facial avatar reconstruction. 4d顔アバター再建。 0.70
arXiv preprint arXiv:2012.03065, 2020. arXiv preprint arXiv:2012.03065, 2020 0.81
[11] A. Gaidon, Q. Wang, Y. Cabon, and E. Vig. [11] A. Gaidon, Q. Wang, Y. Cabon, E. Vig. 0.98
Virtual worlds as proxy for multi-object tracking analysis. マルチオブジェクトトラッキング解析のプロキシとしての仮想世界。 0.73
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 4340–4349, 2016. Proceedings of the IEEE conference on computer vision and pattern recognition, page 4340–4349, 2016 0.81
[12] Y. Ganin, T. Kulkarni, I. Babuschkin, S. M. A. Eslami, and O. Vinyals. Y. Ganin, T. Kulkarni, I. Babuschkin, S. M. A. Eslami, O. Vinyals. 0.84
Synthesizing programs for images using reinforced adversarial learning. プログラムの合成 強化された敵対的学習を 利用した画像です 0.63
In ICML, 2018. 2018年、ICML入社。 0.74
[13] Y. Ganin, E. Ustinova, H. Ajakan, P. Germain, H. Larochelle, F. Laviolette, M. Marchand, and V. Lempitsky. Y. Ganin, E. Ustinova, H. Ajakan, P. Germain, H. Larochelle, F. Laviolette, M. Marchand, V. Lempitsky. 0.92
Domain-adversarial training of neural networks. ニューラルネットワークのドメイン・adversarial training。 0.72
J. Mach. Learn. J. Mach 学ぶ。 0.72
Res., 17(1):2096–2030, Jan. 2016. res., 17(1):2096–2030, 2016年1月。 0.72
[14] R. V. Garcia, L. Wandzik, L. Grabner, and J. Krueger. 14] R. V. Garcia, L. Wandzik, L. Grabner, J. Krueger. 0.95
The harms of demographic bias in deep face recognition research. ディープ顔認識研究における人口統計バイアスの害 0.68
In 2019 International Conference on Biometrics (ICB), pages 1–6, 2019. 2019年、ICB(International Conference on Biometrics)、1-6頁。 0.74
10 10 0.85
英語(論文から抽出)日本語訳スコア
[15] I. Goodfellow, J. Shlens, and C. Szegedy. [15]i. goodfellow、j. shlens、c. szegedy。 0.70
Explaining and harnessing adversarial examples. 敵の例を説明し、活用する。 0.46
In Proc. ICLR, 2015. 院 Proc ICLR、2015年。 0.59
[16] P. Grother, M. Ngan, and K. Hanaoka. 16] P. Grother, M. Ngan, K. Hanaoka 0.74
Face recognition vendor test part 3: Demographic effects, 顔認識ベンダーテスト部3:人口動態への影響, 0.74
2019-12-19 2019. 2019-12-19 2019. 0.59
[17] J. Hoffman, E. Tzeng, T. Park, J.-Y. J. Hoffman, E. Tzeng, T. Park, J.-Y. 0.85
Zhu, P. Isola, K. Saenko, A. Efros, and T. Darrell. Zhu, P. Isola, K. Saenko, A. Efros, T. Darrell 0.90
Cycada: In International conference on machine cycada: in international conference on machine 0.79
Cycle-consistent adversarial domain adaptation. 周期整合対向ドメイン適応 0.57
learning, pages 1989–1998. 1989-1998頁。 0.59
PMLR, 2018. 2018年、PMLR。 0.68
[18] G. B. Huang, M. Ramesh, T. Berg, and E. Learned-Miller. G. B. Huang, M. Ramesh, T. Berg, E. Learned-Miller. 0.84
Labeled faces in the wild: A database for studying face recognition in unconstrained environments. ラベル付きfaces in the wild: 制約のない環境で顔認識を研究するためのデータベース。 0.76
Technical Report 07-49, University of Massachusetts, Amherst, October 2007. 技術報告 07-49, university of massachusetts, amherst, 2007年10月 0.79
[19] J. Johnson, B. Hariharan, L. Van Der Maaten, L. Fei-Fei, C. Lawrence Zitnick, and R. Girshick. J. Johnson, B. Hariharan, L. Van Der Maaten, L. Fei-Fei, C. Lawrence Zitnick, R. Girshick. 0.90
Clevr: A diagnostic dataset for compositional language and elementary visual reasoning. Clevr: 合成言語と基本的な視覚的推論のための診断データセット。 0.73
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 2901–2910, 2017. IEEE Conference on Computer Vision and Pattern Recognition, page 2901–2910, 2017 (英語)
訳抜け防止モード: IEEE Conference on Computer Vision and Pattern Recognition に参加して 2901-2910頁、2017年。
0.82
[20] A. Kar, A. Prakash, M.-Y. A. Kar, A. Prakash, M.-Y. 0.80
Liu, E. Cameracci, J. Yuan, M. Rusiniak, D. Acuna, A. Torralba, and S. Fidler. Liu, E. Cameracci, J. Yuan, M. Rusiniak, D. Acuna, A. Torralba, S. Fidler 0.95
Meta-sim: Learning to generate synthetic datasets. Meta-sim: 合成データセットを生成する学習。 0.70
In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), October 2019. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV) 2019年10月。 0.92
[21] A. Kortylewski, B. Egger, A. Schneider, T. Gerig, A. Morel-Forster, and T. Vetter. A. Kortylewski, B. Egger, A. Schneider, T. Gerig, A. Morel-Forster, T. Vetter 0.86
Empirically analyzing the effect of dataset biases on deep face recognition systems. 深層顔認識システムにおけるデータセットバイアスの影響を実証分析する。 0.78
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pages 2093–2102, 2018. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, page 2093–2102, 2018。 0.90
[22] A. Kortylewski, B. Egger, A. Schneider, T. Gerig, A. Morel-Forster, and T. Vetter. A. Kortylewski, B. Egger, A. Schneider, T. Gerig, A. Morel-Forster, T. Vetter 0.85
Analyzing and reducing the damage of dataset bias to face recognition with synthetic data. 合成データを用いた顔認識に対するデータセットバイアスの損傷の分析と軽減。 0.81
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pages 2261–2268, 2019. ieee conference on computer vision and pattern recognition workshops (ieee conference on computer vision and pattern recognition workshops) 第2261-2268頁。
訳抜け防止モード: IEEE Conference on Computer Vision and Pattern Recognition Workshops に参加して 2261-2268頁、2019年。
0.80
[23] T. Li, T. Bolkart, M. J. [23] T. Li, T. Bolkart, M. J. 0.96
Black, H. Li, and J. Romero. Black、H. Li、J. Romero。 0.84
Learning a model of facial shape and expression from 4D scans. 4Dスキャンから顔の形状と表情のモデルを学ぶ。 0.82
ACM Transactions on Graphics, (Proc. ACM Transactions on Graphics, (Proc). 0.93
SIGGRAPH Asia), 36(6):194:1–194:17, 2017. SIGGRAPH Asia, 36(6):194:1–194:17, 2017 0.80
[24] T. Li, M. Slavcheva, M. Zollhoefer, S. Green, C. Lassner, C. Kim, T. Schmidt, S. Lovegrove, T. Li, M. Slavcheva, M. Zollhoefer, S. Green, C. Lassner, C. Kim, T. Schmidt, S. Lovegrove 0.90
M. Goesele, and Z. Lv. M. Goesele、Z. Lv。 0.77
Neural 3d video synthesis. ニューラル3dビデオ合成。 0.77
arXiv preprint arXiv:2103.02597, 2021. arXiv preprint arXiv:2103.02597, 2021 0.81
[25] H. Lieberman. H.リーバーマン (H. Lieberman)。 0.60
How to color in a coloring book. 塗り絵で着色する方法。 0.46
SIGGRAPH Comput. SIGGRAPH Comput 0.55
Graph., 12(3):111–116, Graph., 12(3):111-116。 0.82
Aug. 1978. [26] G. Louppe and K. Cranmer. 1978年8月。 [26] G. Louppe と K. Cranmer 0.76
Adversarial variational optimization of non-differentiable simulators. 非微分シミュレータの逆変分最適化 0.64
arXiv preprint arXiv:1707.07113, 2017. arXiv preprint arXiv:1707.07113, 2017 0.79
[27] A. Madry, A. Makelov, L. Schmidt, D. Tsipras, and A. Vladu. A. Madry, A. Makelov, L. Schmidt, D. Tsipras, A. Vladu. 0.81
Towards deep learning models resistant to adversarial attacks. 敵対的攻撃に抵抗するディープラーニングモデルに向けて 0.67
In International Conference on Learning Representations, 2018. 2018年、国際学習表現会議に参加。 0.75
[28] N. Mayer, E. Ilg, P. Hausser, P. Fischer, D. Cremers, A. Dosovitskiy, and T. Brox. N. Mayer, E. Ilg, P. Hausser, P. Fischer, D. Cremers, A. Dosovitskiy, T. Brox. 0.84
A large dataset to train convolutional networks for disparity, optical flow, and scene flow estimation. 分散性、光学フロー、シーンフロー推定のために畳み込みネットワークを訓練する大規模なデータセット。 0.68
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 4040–4048, 2016. Proceedings of the IEEE conference on computer vision and pattern recognition, page 4040–4048, 2016 0.80
[29] B. Mildenhall, P. P. Srinivasan, M. Tancik, J. T. Barron, R. Ramamoorthi, and R. Ng. B. Mildenhall, P. P. Srinivasan, M. Tancik, J. T. Barron, R. Ramamoorthi, R. Ng. 0.91
Nerf: Representing scenes as neural radiance fields for view synthesis. nerf: シーンを、ビュー合成のためのニューラルラミアンスフィールドとして表現する。 0.65
In European Conference on Computer Vision, pages 405–421. 欧州コンピュータビジョン会議』405-421頁。 0.68
Springer, 2020. スプリンガー、2020年。 0.59
[30] N. Papernot, P. McDaniel, I. Goodfellow, S. Jha, Z. [30] N. Papernot, P. McDaniel, I. Goodfellow, S. Jha, Z. 0.96
B. Celik, and A. Swami. B.CelikとA.Swami。 0.76
Practical black-box attacks against machine learning. 機械学習に対する実用的なブラックボックス攻撃。 0.66
In Proceedings of the 2017 ACM on Asia conference on computer and communications security, pages 506–519. 2017年のACM on Asia Conference on Computer and Communication Securityで、506-519頁。 0.77
ACM, 2017. 2017年、ACM。 0.87
[31] P. Paysan, R. Knothe, B. Amberg, S. Romdhani, and T. Vetter. [31]P. Paysan、R. Knothe、B. Amberg、S. Romdhani、T. Vetter。 0.83
A 3d face model for pose and illumination invariant face recognition. ポーズと照明の不変顔認識のための3次元顔モデル 0.76
In 2009 sixth IEEE international conference on advanced video and signal based surveillance, pages 296–301. 2009年、第6回ieee international conference on advanced video and signal based surveillance, pages 296–301。 0.79
Ieee, 2009. Ieee, 2009年。 0.89
11 11 0.85
英語(論文から抽出)日本語訳スコア
[32] X. Peng, Q. Bai, X. Xia, Z. Huang, K. Saenko, and B. Wang. [32]X. Peng、Q. Bai、X. Xia、Z. Huang、K. Saenko、B. Wang。 0.86
Moment matching for multi-source domain adaptation. マルチソースドメイン適応のためのモーメントマッチング 0.74
In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 1406–1415, 2019. In Proceedings of the IEEE/CVF International Conference on Computer Vision, page 1406–1415, 2019。 0.91
[33] N. Pinto, J. J. DiCarlo, and D. D. Cox. [33]N. Pinto、J.J. DiCarlo、D.D. Cox。 0.83
Establishing good benchmarks and baselines for face recognition. 顔認識のための優れたベンチマークとベースラインを確立する。 0.59
In Workshop on Faces In’Real-Life’Images: Detection, Alignment, and Recognition, 2008. In Workshop on Faces In'Real-Life’Images: Detection, Alignment and Recognition, 2008 (英語) 0.91
[34] S. R. Richter, V. Vineet, S. Roth, and V. Koltun. S. R. Richter, V. Vineet, S. Roth, V. Koltun. 0.79
Playing for data: Ground truth from computer データ再生: コンピュータによる地上真実 0.71
games. In European Conference on Computer Vision, pages 102–118. ゲーム。 European Conference on Computer Vision』102-118頁。 0.78
Springer, 2016. スプリンガー、2016年。 0.60
[35] G. Ros, L. Sellart, J. Materzynska, D. Vazquez, and A. M. Lopez. G. Ros, L. Sellart, J. Materzynska, D. Vazquez, A. M. Lopez. 0.87
The synthia dataset: A large collection of synthetic images for semantic segmentation of urban scenes. synthiaデータセット:都市シーンの意味セグメンテーションのための合成画像の大規模なコレクション。 0.82
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 3234–3243, 2016. Proceedings of the IEEE conference on computer vision and pattern recognition, page 3234–3243, 2016 0.80
[36] N. Ruiz, S. Schulter, and M. Chandraker. N. Ruiz, S. Schulter, M. Chandraker. 0.66
Learning to simulate. シミュレーションを学ぶ。 0.69
In International Conference on Learning Representations, 2018. 国際会議において 2018年、博士号取得。 0.61
[37] N. Ruiz, B.-J. [37] N. Ruiz, B.-J. 0.88
Theobald, A. Ranjan, A. H. Abdelaziz, and N. Apostoloff. Theobald, A. Ranjan, A. H. Abdelaziz, N. Apostoloff 0.92
Morphnet: One-shot Morphnet: ワンショット 0.85
face synthesis gan for detecting recognition bias. 認識バイアス検出のための顔合成gan 0.76
arXiv preprint arXiv:2012.05225, 2020. arXiv preprint arXiv:2012.05225, 2020 0.81
[38] H. Salman, A. Ilyas, L. Engstrom, S. Vemprala, A. Madry, and A. Kapoor. H. Salman, A. Ilyas, L. Engstrom, S. Vemprala, A. Madry, A. Kapoor. 0.83
Unadversarial examples: Designing objects for robust vision. 異説 例: 堅牢なビジョンのためにオブジェクトを設計する。 0.53
arXiv preprint arXiv:2012.12235, 2020. arXiv preprint arXiv:2012.12235, 2020 0.81
[39] M. Shu, C. Liu, W. Qiu, and A. Yuille. [39]M. Shu、C. Liu、W. Qiu、A. Yuille。 0.87
Identifying model weakness with adversarial examiner. 逆検者によるモデルの弱点の同定 0.64
In Proceedings of the AAAI Conference on Artificial Intelligence, volume 34, pages 11998–12006, 2020. The Proceedings of the AAAI Conference on Artificial Intelligence, Volume 34, pages 11998–12006, 2020 0.84
[40] A. R. Smith. A・R・スミス[40] 0.68
Tint fill. SIGGRAPH Comput. Tint fill SIGGRAPH Comput 0.55
Graph., 13(2):276–283, Aug. 1979. Graph., 13(2):276–283, 1979年8月。 0.77
[41] C. Szegedy, W. Zaremba, I. Sutskever, J. Bruna, D. Erhan, I. Goodfellow, and R. Fergus. C. Szegedy, W. Zaremba, I. Sutskever, J. Bruna, D. Erhan, I. Goodfellow, R. Fergus. 0.87
Intriguing properties of neural networks. ニューラルネットワークの興味深い性質 0.67
In In Proc. ICLR, 2014. proc 内。 2014年、ICLR。 0.58
[42] Y.-H. Tsai, W.-C. Hung, S. Schulter, K. Sohn, M.-H. Yang, and M. Chandraker. Y.H. Tsai, W.C. Hung, S. Schulter, K. Sohn, M.H. Yang, M. Chandraker 0.80
Learning to adapt structured output space for semantic segmentation. 意味的セグメンテーションのための構造化出力空間の適応学習 0.79
In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018. 2018年6月、IEEE Conference on Computer Vision and Pattern Recognition (CVPR)で発表された。 0.77
[43] E. Tzeng, J. Hoffman, K. Saenko, and T. Darrell. [43]E. Tzeng、J. Hoffman、K. Saenko、T. Darrell。 0.84
Adversarial discriminative domain adaptation. 敵対的差別的ドメイン適応。 0.50
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 7167–7176, 2017. Proceedings of the IEEE conference on computer vision and pattern recognition, page 7167–7176, 2017 0.80
[44] H. Wang, Y. Wang, Z. Zhou, X. Ji, D. Gong, J. Zhou, Z. Li, and W. Liu. [44] h. wang, y. wang, z. zhou, x. ji, d. gong, j. zhou, z. li, w. liu
訳抜け防止モード: [44 ]H.Wang,Y.Wang,Z.Zhou , X. Ji, D. Gong, J. Zhou, Z. Li W. Liu。
0.82
Cosface: Large margin cosine loss for deep face recognition. Cosface: ディープフェイス認識のための大きなマージンコサイン損失。 0.76
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 5265–5274, 2018. Proceedings of the IEEE conference on computer vision and pattern recognition, page 5265–5274, 2018。 0.85
[45] R. J. Williams. R・J・ウィリアムズ [45] 0.83
Simple statistical gradient-following algorithms for connectionist reinforcement コネクショニスト補強のための簡易統計勾配追従アルゴリズム 0.71
learning. Machine learning, 8(3-4):229–256, 1992. 学ぶこと。 機械学習、8(3-4):229-256、1992。 0.68
[46] S. Woo, J. [46] S. Woo, J。 0.89
Park, J.-Y. Lee, and I. S. Kweon. 公園、J-Y。 リーとI.S.クウィン。 0.61
Cbam: Convolutional block attention module. Cbam: 進化的ブロックアテンションモジュール。 0.67
In Proceedings of the European conference on computer vision (ECCV), pages 3–19, 2018. 院 欧州コンピュータビジョン会議 (ECCV) - 2018年3月19日閲覧。 0.53
[47] D. Yi, Z. Lei, S. Liao, and S. Z. Li. 47] d. yi, z. lei, s. liao, s. z. li。 0.72
Learning face representation from scratch. スクラッチから顔表現を学ぶ。 0.65
arXiv preprint arXiv プレプリント 0.83
arXiv:1411.7923, 2014. 2014年、arxiv:1411.7923。 0.43
[48] A. L. Yuille and C. Liu. [48] a.l.ユイユとc.リウ 0.68
Deep nets: What have they ever done for vision? Deep nets: ビジョンのために何をしたか? 0.86
International Journal International Journal 0.85
of Computer Vision, 129(3):781–802, 2021. コンピュータビジョン』 129(3):781–802, 2021 0.82
[49] X. Zeng, C. Liu, Y.-S. Wang, W. Qiu, L. Xie, Y.-W. Tai, C.-K. Tang, and A. L. Yuille. [49] X. Zeng, C. Liu, Y.-S. Wang, W. Qiu, L. Xie, Y.-W. Tai, C.-K. Tang, A. L. Yuille 0.81
Adversarial attacks beyond the image space. 画像空間を超えた敵攻撃。 0.74
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 4302–4311, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 4302–4311, 2019。 0.93
12 12 0.85
英語(論文から抽出)日本語訳スコア
A. Appendix We perform further simulated adversarial testing experiments on a CBAM-ResNet50 trained on CASIA WebFace for 20 epochs. A。 付録 我々は,CASIA WebFaceで20時間トレーニングしたCBAM-ResNet50上で,さらにシミュレーション実験を行う。 0.65
This network achieves a 99.1% accuracy on the LFW test set. このネットワークはLFWテストセットで99.1%の精度を達成する。 0.74
The evaluation task is face verification between two synthetic images of a same person’s face, one frontal and one profile image. 評価課題は、同一人物の顔と1つの正面と1つのプロフィール画像の合成画像間の顔検証である。 0.76
We vary the first 30 shape parameters as well as the first 30 texture parameters for our generated identities, ranging from −2σ and 2σ where σ is the standard deviation of each parameter in question. 最初の30の形状パラメータと、生成されたアイデンティティに対する最初の30のテクスチャパラメータが異なり、σ が問題のパラメータの標準偏差である −2σ から 2σ まで様々である。 0.84
We also vary the yaw pose parameter within [−1, +1], corresponding to variations of [−π/2, +π/2] degrees and the pitch pose parameter from [−1/4, +1/4] corresponding to variations within [−π/8, +π/8]. また, [−1, +1] 内のヨーポーズパラメータも [−π/2, +π/2] の変動に対応し, [−1/4, +1/4] のピッチポーズパラメータは [−π/8, +π/8] の変動に対応する。 0.74
Thus, in this case our algorithm has to learn 62 parameters. この場合、アルゴリズムは62のパラメータを学習しなければならない。 0.79
This is a more challenging scenario due to the larger dimensionality of the policy output. これは、政策出力の次元が大きくなるため、より困難なシナリオである。 0.77
We perform 100 runs of our adversarial testing algorithm (200 maximum iterations). 敵のテストアルゴリズムを100回実行します(最大200回)。 0.64
We also perform 1,000 iterations of uniform random sampling of parameters. また、パラメータの均一なランダムサンプリングを1,000回実施する。 0.65
We compare the two in Table 3 and we show that the face recognition network achieves an accuracy of 99.9% on the random sample regime, also close to the 99.1% real-world accuracy of the network on the LFW test set. 表3の2つを比較し,lfwテストセットにおける実世界精度の99.1%に近いランダムサンプル環境において,顔認識ネットワークが99.9%の精度を達成することを示した。 0.83
Using adversarial testing, the network exhibits an accuracy of 49%, a marked drop in verification performance. 逆テストを使用して、ネットワークは49%の精度を示し、検証性能が著しく低下する。 0.71
We also compute the average cosine similarity between pairs, showing that adversarial testing generates highly adversarial samples (success threshold T = 0.298) whereas random samples are highly non-adversarial on average. また, 対間の平均コサイン類似度を計算し, 逆テストが高度に逆向きなサンプルを生成することを示した(成功しきい値t = 0.298)。 0.77
Further, adversarial testing achieves 51 adversarial samples over 12,587 iterations while random sampling achieves only one adversarial sample over 1,000 iterations. さらに、無作為サンプリングは1,587回の反復で51回の逆サンプリングを達成し、1,000回以上の逆サンプリングは1回しか達成しない。
訳抜け防止モード: さらに,12,587回にわたって51回の逆検定を行う。 ランダムサンプリングは、1000回以上の逆サンプルを1つだけ達成します。
0.57
This makes adversarial testing 400% more sample efficient than random sampling in this specific scenario. これにより、この特定のシナリオにおけるランダムサンプリングよりも400%のサンプルテストが効率的になる。 0.69
In some of our tested scenarios and depending on the number of iterations, random sampling was not able to find any adversarial samples. テストシナリオのいくつかとイテレーション数によっては、ランダムサンプリングは逆のサンプルを見つけることができませんでした。 0.76
We present an illustration in Figure 5, where a successful adversarial testing run is able to quickly lock onto a specific model weakness and produces an adversarial example in tens of iterations while random sampling takes more than 600 iterations to produce one. 図5では、成功裏テストの実行が、特定のモデルの弱点を素早くロックし、数十回の反復で敵の例を生成することができ、ランダムサンプリングは600回以上繰り返して生成する図5を提示する。 0.75
We can also see that the average cosine similarity of randomly sampled pairs is highly non-adversarial (0.766). また、ランダムにサンプリングされたペアの平均コサイン類似性は非逆数 (0.766) である。 0.74
In Figure 6, we show several successful adversarial testing runs (orange/red) and a random sampling run. 図6では、複数の対向テスト(オレンジ/レッド)とランダムサンプリングの実行を成功させる。 0.79
We see the same principle of quick generation of adversarial samples exemplified here. 敵のサンプルを素早く生成するという同じ原理がここに示されています。 0.59
Unsuccessful attempts usually converge to a low cosine similarity without becoming adversarial and remain in the high-dimensional local minima. 無作為な試みは通常、逆数になることなく低コサイン類似性に収束し、高次元局所ミニマに留まる。
訳抜け防止モード: 不要な試みは通常、逆境になることなく低いコサイン類似性に収束する 高次元局所ミニマに留まる。
0.58
Finally, we show an example of our adversarial testing method in action where all 30 shape, 30 texture and 2 pose parameters are being learned jointly in Figure 7. 最後に、図7に示すように、30の形状、30のテクスチャ、2のポーズパラメータが一緒に学習されている場合の敵検定手法の例を示す。 0.65
The algorithm finds an adversarial sample that reveals model weaknesses such as vulnerability to unusual poses, exaggerated facial features and distinct skin color. アルゴリズムは、異常なポーズに対する脆弱性、誇張された顔の特徴、異なる肌の色など、モデルの弱点を明らかにする敵対的なサンプルを見つける。 0.58
Illustration of Learning on 2D Surface We use our method to find adversarial regions in simulation for face recognition models. 2次元表面での学習を例示し,顔認識モデルにおける逆領域の探索を行う。 0.76
We do this in the face verification scenario between a frontal image with neutral expression and a profile image with an open jaw. 本研究は、中性表現を持つ正面像と開放顎を有するプロファイル像との顔検証シナリオにおいて行う。 0.73
We vary the first shape and texture parameters to find an adversarial sample, and then find the connected components to those seed parameters. 最初の形状とテクスチャパラメータを変えて、逆のサンプルを見つけて、それらのシードパラメータの連結コンポーネントを見つけます。 0.70
We also grid sample both parameters in order to plot the synthetic sample surface. また, 合成試料表面をプロットするために, 両方のパラメータをグリッド化する。 0.76
We show the surface of all synthetic samples (blue), along with the adversarial region (red) and the adversarial threshold plane (orange) in Figure 8. 図8では、すべての合成試料(青)の表面と、対向領域(赤)と対向しきい値面(オレンジ)を示す。 0.70
Additionally, here we show the learning trajectory (lighter red) of the initial phase of our algorithm that finds the seed adversarial parameters to subsequently find the adversarial parameter region. さらに,本アルゴリズムの初期段階における学習軌跡(明赤色)を示し,その初期段階における種子逆パラメータを探索し,その逆パラメータ領域を求める。 0.76
Our method starts at the (0, 0) shape and texture coordinate and explores the landscape to quickly find simulator parameters that generate faces that are adversarial for the face recognition model. 本手法は, (0, 0) 形状とテクスチャ座標から始まり, ランドスケープを探索し, 顔認識モデルに逆らう顔を生成するシミュレーターパラメータを迅速に見つける。 0.79
Acknowledgements We thank Romain Lopez for the interesting conversations and suggestions. 覚書 Romain Lopez氏の興味深い会話と提案に感謝します。 0.60
13 13 0.85
英語(論文から抽出)日本語訳スコア
Figure 5: Evolution of cosine similarity for adversarial testing and random parameter sampling. 図5: 逆テストとランダムパラメータサンプリングのためのコサイン類似性の進化。 0.82
Most runs of adversarial testing quickly lock onto specific weaknesses and produce adversarial examples in few iterations while random parameter sampling averages highly non-adversarial examples. 逆行テストのほとんどの実行は、特定の弱点を素早くロックし、少数のイテレーションで逆行の例を生成し、ランダムパラメータサンプリングは、非常に逆行の例を平均する。 0.53
Figure 6: Evolution of cosine similarity for successful adversarial testing runs and random parameter sampling. 図6: 逆行テストの成功とランダムパラメータサンプリングのためのコサイン類似性の進化。 0.82
Runs of adversarial testing quickly lock onto specific weaknesses and produce adversarial examples in few iterations while random parameter sampling averages highly non-adversarial examples. 逆行テストの実行は、特定の弱点を素早くロックし、少数のイテレーションで逆行の例を生成する一方、ランダムパラメータサンプリングは、非常に逆行の例の平均となる。 0.52
Table 3: CBAM-ResNet50 face verification accuracy over synthetic datasets generated by random sampling or by adversarial testing (Adv. 表3:CBAM-ResNet50 ランダムサンプリングまたは逆検定により生成された合成データセットに対する顔認証精度(Adv)。 0.68
Testing). We vary 30 shape parameters, 30 texture parameters and the yaw and pitch pose parameters. テスト)。 形状パラメータは30、テクスチャパラメータは30、ヨーとピッチポーズパラメータは30である。 0.74
Method Accuracy ↓ Avg. 方法 正確さはAvg。 0.64
Cosine Similarity ↓ Random Sampling コサインの類似性 ランダムサンプリング 0.65
Adv. Testing 99.9% 49% Adv テスト 99.9% 49% 0.70
0.766 0.282 0.766 0.282 0.50
14 14 0.85
英語(論文から抽出)日本語訳スコア
Figure 7: A sequence of generated synthetic samples undergoing adversarial testing (left to right, top to bottom). 図7: 対角試験(左から右、上から下への)中の生成した合成サンプルのシーケンス。 0.80
Our method searches through all 30 shape, 30 texture and 2 pose parameters jointly to find an adversarial face. 本手法は,30の形状,30のテクスチャ,および2のパラメータを合わせて探索し,対向顔を求める。 0.70
The border line colors denote whether the face recognition network can successfully verify the pairs, with red denoting a failed verification and green denoting a successful verification. 境界色は、顔認証ネットワークがペアの検証に成功するかどうかを示し、赤は検証に失敗し、緑は検証に成功することを示す。 0.69
Figure 8: Our algorithm finds the adversarial region (red) in the shape-texture landscape (blue). 図8: このアルゴリズムは, 形状・テクスチュアランドスケープ(青)の対向領域(赤)を探索する。 0.81
We also plot the initial learning trajectory of our algorithm in lighter red that yields the seed adversarial simulator parameters. また,本アルゴリズムの初期学習軌跡を,シード逆シミュレータパラメータを生成する軽量赤にプロットした。 0.75
We also plot the adversarial threshold plane (orange). また、逆しきい値平面(オレンジ)をプロットする。 0.69
15 15 0.85
                               ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。