論文の概要: A Unified Framework for Adversarial Attack and Defense in Constrained
Feature Space
- arxiv url: http://arxiv.org/abs/2112.01156v1
- Date: Thu, 2 Dec 2021 12:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 00:00:10.454025
- Title: A Unified Framework for Adversarial Attack and Defense in Constrained
Feature Space
- Title(参考訳): 制約された特徴空間における敵攻撃と防御のための統一フレームワーク
- Authors: Thibault Simonetto, Salijona Dyrmishi, Salah Ghamizi, Maxime Cordy,
Yves Le Traon
- Abstract要約: 本稿では、与えられたドメイン制約を満たす実行可能な逆例を生成するための統一的なフレームワークを提案する。
我々のフレームワークは、制約された敵攻撃の研究の出発点を形成し、研究が活用できる関連するベースラインとデータセットを提供します。
- 参考スコア(独自算出の注目度): 13.096022606256973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The generation of feasible adversarial examples is necessary for properly
assessing models that work on constrained feature space. However, it remains a
challenging task to enforce constraints into attacks that were designed for
computer vision. We propose a unified framework to generate feasible
adversarial examples that satisfy given domain constraints. Our framework
supports the use cases reported in the literature and can handle both linear
and non-linear constraints. We instantiate our framework into two algorithms: a
gradient-based attack that introduces constraints in the loss function to
maximize, and a multi-objective search algorithm that aims for
misclassification, perturbation minimization, and constraint satisfaction. We
show that our approach is effective on two datasets from different domains,
with a success rate of up to 100%, where state-of-the-art attacks fail to
generate a single feasible example. In addition to adversarial retraining, we
propose to introduce engineered non-convex constraints to improve model
adversarial robustness. We demonstrate that this new defense is as effective as
adversarial retraining. Our framework forms the starting point for research on
constrained adversarial attacks and provides relevant baselines and datasets
that future research can exploit.
- Abstract(参考訳): 制約のある特徴空間に作用するモデルを適切に評価するには、実現可能な逆例の生成が必要である。
しかし、コンピュータビジョンのために設計された攻撃に制約を課すことは依然として難しい課題である。
与えられたドメイン制約を満たす、実行可能な逆行例を生成するための統一フレームワークを提案する。
我々のフレームワークは文献で報告されているユースケースをサポートし、線形制約と非線形制約の両方を扱える。
フレームワークを2つのアルゴリズムにインスタンス化する: 損失関数の制約を最大化するための勾配に基づく攻撃と、誤分類、摂動最小化、制約満足度を目的とした多目的探索アルゴリズムである。
我々のアプローチは、異なるドメインの2つのデータセットに対して有効であり、成功率は最大100%であり、最先端の攻撃が単一の可能な例を生成できないことを示す。
対向的再訓練に加えて, モデル対向的ロバスト性を改善するために, 工学的非凸制約を導入することを提案する。
我々は、この新しい防御が敵の再訓練と同じくらい効果的であることを実証する。
我々のフレームワークは、制約付き敵攻撃の研究の出発点となり、将来の研究が活用できる関連するベースラインとデータセットを提供します。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Pragmatic Fairness: Developing Policies with Outcome Disparity Control [15.618754942472822]
公正性の制約を満たす最適ポリシーを設計するための因果的枠組みを導入する。
そこで我々は,モデレーションの破れ制約と同等の利益制約という,2つの異なる公正性制約を提案する。
論文 参考訳(メタデータ) (2023-01-28T19:25:56Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - On the Robustness of Domain Constraints [0.4194295877935867]
逆転例がモデル化されたドメインにおける現実的な入力を表すかどうかは不明である。
本稿では、ドメイン制約が敵の能力を制限する方法を検討する。
学習した制約を、相手のクラフトプロセスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-05-18T15:49:55Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。