論文の概要: Robust Face Verification via Disentangled Representations
- arxiv url: http://arxiv.org/abs/2006.03638v2
- Date: Tue, 23 Jun 2020 16:43:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 03:18:43.528351
- Title: Robust Face Verification via Disentangled Representations
- Title(参考訳): アンタングル表現によるロバスト顔認証
- Authors: Marius Arvinte, Ahmed H. Tewfik and Sriram Vishwanath
- Abstract要約: 顔認証のための頑健なアルゴリズムを導入し、同一人物か否かを判定する。
我々は,学習中に生成モデルを,対向雑音を除去するテスト時間浄化装置の代わりに,オンライン増強法として利用する。
逆行訓練と組み合わせることで,提案手法は弱内部解法と収束し,ホワイトボックスの物理的攻撃に対する評価において,最先端の工法よりもクリーンで堅牢な精度を有することを示す。
- 参考スコア(独自算出の注目度): 20.393894616979402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a robust algorithm for face verification, i.e., deciding whether
twoimages are of the same person or not. Our approach is a novel take on the
idea ofusing deep generative networks for adversarial robustness. We use the
generativemodel during training as an online augmentation method instead of a
test-timepurifier that removes adversarial noise. Our architecture uses a
contrastive loss termand a disentangled generative model to sample negative
pairs. Instead of randomlypairing two real images, we pair an image with its
class-modified counterpart whilekeeping its content (pose, head tilt, hair,
etc.) intact. This enables us to efficientlysample hard negative pairs for the
contrastive loss. We experimentally show that, when coupled with adversarial
training, the proposed scheme converges with aweak inner solver and has a
higher clean and robust accuracy than state-of-the-art-methods when evaluated
against white-box physical attacks.
- Abstract(参考訳): 顔認証のためのロバストなアルゴリズム、すなわち2つの画像が同一人物であるか否かを判断する。
我々のアプローチは、深層生成ネットワークを敵対的ロバスト性に利用するという新しい考え方である。
我々は,学習中に生成モデルを,対向雑音を除去するテスト時間浄化装置の代わりに,オンライン増強法として利用する。
我々のアーキテクチャは、負のペアをサンプリングするために、対照的な損失項と不整合生成モデルを用いる。
2つの実画像をランダムにペアリングする代わりに、画像をその内容(目的、頭部の傾き、髪など)をそのまま保ちながら、クラス修正された画像とペアリングする。
これにより、対照的な損失に対して、硬い負のペアを効率的にサンプルすることができる。
逆行訓練と組み合わせることで,提案手法は弱内部解法と収束し,ホワイトボックス物理攻撃に対する評価において,最先端の工法よりもクリーンで堅牢な精度を有することを示す。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z) - On Evaluating the Adversarial Robustness of Semantic Segmentation Models [0.0]
敵の摂動に対する防御手段として、多くの敵の訓練アプローチが提案されている。
私たちは、前回の作業で堅牢であると主張するモデルが、実際にはまったく堅牢ではないことを初めて示しています。
次に, 強攻撃群においても, 合理的に堅牢なモデルを生成する, 単純な対向訓練アルゴリズムを評価する。
論文 参考訳(メタデータ) (2023-06-25T11:45:08Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Warp Consistency for Unsupervised Learning of Dense Correspondences [116.56251250853488]
密接な対応を学習する上で重要な課題は、実画像対に対する地道整合の欠如である。
密な対応回帰のための教師なし学習目標であるWarp Consistencyを提案する。
私たちのアプローチは、MegaDepth、RobotCar、TSSなど、いくつかの挑戦的なベンチマークに新しい最先端を設定します。
論文 参考訳(メタデータ) (2021-04-07T17:58:22Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。