論文の概要: Adversarial Training for Face Recognition Systems using Contrastive
Adversarial Learning and Triplet Loss Fine-tuning
- arxiv url: http://arxiv.org/abs/2110.04459v1
- Date: Sat, 9 Oct 2021 05:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 17:35:57.107448
- Title: Adversarial Training for Face Recognition Systems using Contrastive
Adversarial Learning and Triplet Loss Fine-tuning
- Title(参考訳): コントラスト対応学習とトリプルト・ロス・ファインチューニングを用いた顔認識システムの逆学習
- Authors: Nazmul Karim, Umar Khalid, Nick Meeker, Sarinda Samarasinghe
- Abstract要約: 本稿では,Ad-versarial Pre-TrainingとTriplet Loss AdversarialFine-Tuningを組み合わせたアプローチを提案する。
本手法は, 微調整中に再検索したエポックをはるかに少なく抑えながら, 比較結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Though much work has been done in the domain of improving the adversarial
robustness of facial recognition systems, a surprisingly small percentage of it
has focused on self-supervised approaches. In this work, we present an approach
that combines Ad-versarial Pre-Training with Triplet Loss
AdversarialFine-Tuning. We compare our methods with the pre-trained ResNet50
model that forms the backbone of FaceNet, finetuned on our CelebA dataset.
Through comparing adversarial robustness achieved without adversarial training,
with triplet loss adversarial training, and our contrastive pre-training
combined with triplet loss adversarial fine-tuning, we find that our method
achieves comparable results with far fewer epochs re-quired during fine-tuning.
This seems promising, increasing the training time for fine-tuning should yield
even better results. In addition to this, a modified semi-supervised experiment
was conducted, which demonstrated the improvement of contrastive adversarial
training with the introduction of small amounts of labels.
- Abstract(参考訳): 顔認識システムの対角的堅牢性を改善する分野では、多くの研究がなされてきたが、驚くべきことに、その割合は自己監督的なアプローチに焦点を当てている。
本稿では,ad-versarial pre-training と triplet loss adversarialfine-tuning を組み合わせた手法を提案する。
CelebAデータセットに微調整されたFaceNetのバックボーンを形成する事前トレーニングされたResNet50モデルと比較する。
逆行訓練,三重項損失逆行訓練,および三重項損失逆行訓練を併用して達成した逆行性強弱を比較検討した結果,細片調整時に要求されるエポックよりもはるかに少ない結果が得られることがわかった。
微調整のトレーニング時間を増やすことで、よりよい結果が得られるでしょう。
これに加えて,改良型半教師付き実験を行い,少量のラベルの導入によるコントラスト的敵意訓練の改善を実証した。
関連論文リスト
- Class Incremental Learning for Adversarial Robustness [17.06592851567578]
アドリラルトレーニングは、モデルトレーニング中の敵の例を統合して、堅牢性を高める。
直感的な対人訓練と漸進的な学習を組み合わせることで、頑健さが失われることが容易に分かる。
本稿では, 対向型とクリーン型との出力差を生かしたFPD損失を提案する。
論文 参考訳(メタデータ) (2023-12-06T04:38:02Z) - Outlier Robust Adversarial Training [57.06824365801612]
本研究では,アウトリー・ロバスト・アドバイザリアル・トレーニング(ORAT)を紹介する。
ORATは、強靭なランクに基づく損失関数を持つ対向訓練の2レベル最適化の定式化に基づいている。
ORATの学習目的はバイナリ分類における$mathcalH$-consistencyを満たすことが示され、これは敵の0/1損失に対する適切なサロゲートとして確立されている。
論文 参考訳(メタデータ) (2023-09-10T21:36:38Z) - Improved Adversarial Training Through Adaptive Instance-wise Loss
Smoothing [5.1024659285813785]
敵の訓練は、このような敵の攻撃に対する最も成功した防御であった。
本稿では,新たな対人訓練手法を提案する。
本手法は,$ell_infty$-norm制約攻撃に対する最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2023-03-24T15:41:40Z) - Adversarial Coreset Selection for Efficient Robust Training [11.510009152620666]
トレーニングデータの小さなサブセットを選択することは、堅牢なトレーニングの時間的複雑さを軽減するための原則的なアプローチを提供する方法を示す。
本手法が敵の訓練を2~3回高速化することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-09-13T07:37:53Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Towards Understanding Fast Adversarial Training [91.8060431517248]
高速対人訓練の振る舞いを理解するために実験を行う。
その成功の鍵は、過度な適合から弱い攻撃への回復能力である。
論文 参考訳(メタデータ) (2020-06-04T18:19:43Z) - Improving the affordability of robustness training for DNNs [11.971637253035107]
逆行訓練の初期段階は冗長であり、計算効率を大幅に向上させる自然な訓練に置き換えることができることを示す。
提案手法は, 各種敵攻撃の強みに対するモデルテスト精度と一般化により, 最大2.5倍の訓練時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-02-11T07:29:45Z) - Efficient Adversarial Training with Transferable Adversarial Examples [58.62766224452761]
同じトレーニングプロセスにおいて、近隣のエポックからのモデル間で高い転送可能性があることが示される。
本稿では,ATTA(Adversarial Training with Transferable Adversarial Examples)を提案する。
論文 参考訳(メタデータ) (2019-12-27T03:05:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。