論文の概要: BOSS: Bidirectional One-Shot Synthesis of Adversarial Examples
- arxiv url: http://arxiv.org/abs/2108.02756v1
- Date: Thu, 5 Aug 2021 17:43:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 16:18:42.362900
- Title: BOSS: Bidirectional One-Shot Synthesis of Adversarial Examples
- Title(参考訳): BOSS: 逆例の双方向ワンショット合成
- Authors: Ismail Alkhouri, Alvaro Velasquez, George Atia
- Abstract要約: 本稿では,逆数例のワンショット合成を提案する。
入力はスクラッチから合成され、事前訓練されたモデルの出力で任意のソフト予測を誘導する。
本稿では,本フレームワークの汎用性と汎用性を示す。
- 参考スコア(独自算出の注目度): 8.359029046999233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The design of additive imperceptible perturbations to the inputs of deep
classifiers to maximize their misclassification rates is a central focus of
adversarial machine learning. An alternative approach is to synthesize
adversarial examples from scratch using GAN-like structures, albeit with the
use of large amounts of training data. By contrast, this paper considers
one-shot synthesis of adversarial examples; the inputs are synthesized from
scratch to induce arbitrary soft predictions at the output of pre-trained
models, while simultaneously maintaining high similarity to specified inputs.
To this end, we present a problem that encodes objectives on the distance
between the desired and output distributions of the trained model and the
similarity between such inputs and the synthesized examples. We prove that the
formulated problem is NP-complete. Then, we advance a generative approach to
the solution in which the adversarial examples are obtained as the output of a
generative network whose parameters are iteratively updated by optimizing
surrogate loss functions for the dual-objective. We demonstrate the generality
and versatility of the framework and approach proposed through applications to
the design of targeted adversarial attacks, generation of decision boundary
samples, and synthesis of low confidence classification inputs. The approach is
further extended to an ensemble of models with different soft output
specifications. The experimental results verify that the targeted and
confidence reduction attack methods developed perform on par with
state-of-the-art algorithms.
- Abstract(参考訳): 誤分類率を最大化する深層分類器の入力に対する加法的受容不能な摂動の設計は、敵機械学習の中心的な焦点である。
もう一つのアプローチは、大量のトレーニングデータを使用するにもかかわらず、GANのような構造を用いて、スクラッチから敵の例を合成することである。
対照的に,本論文では,先行学習したモデルの出力において,任意のソフト予測を誘導するため,スクラッチから入力を合成し,同時に特定の入力と高い類似性を維持する。
そこで本研究では,学習モデルの所望分布と出力分布との距離と,それらの入力と合成例との類似性について対象を符号化する問題を提案する。
定式化問題はNP完全であることを示す。
次に,双対目的に対してサーロゲート損失関数を最適化することにより,パラメータを反復的に更新する生成ネットワークの出力として,逆例が得られた解に対する生成的アプローチを前進させる。
提案するフレームワークとアプローチの汎用性と汎用性を,対象とする敵攻撃の設計,決定境界サンプルの生成,低信頼分類入力の合成に応用して実証する。
このアプローチはさらに、ソフト出力仕様の異なるモデルのアンサンブルにまで拡張されている。
実験により, 対象と信頼性を低下させる攻撃法が, 最先端のアルゴリズムと同等に動作することを確認した。
関連論文リスト
- A Constraint-Enforcing Reward for Adversarial Attacks on Text Classifiers [10.063169009242682]
逆例を生成するために,エンコーダ-デコーダパラフレーズモデルを訓練する。
我々は強化学習アルゴリズムを採用し、制約付き報酬を提案する。
提案手法の主な設計選択が生成した例にどのように影響するかを示し,提案手法の長所と短所について議論する。
論文 参考訳(メタデータ) (2024-05-20T09:33:43Z) - Refine, Discriminate and Align: Stealing Encoders via Sample-Wise Prototypes and Multi-Relational Extraction [57.16121098944589]
RDAは、事前訓練されたエンコーダを盗むために、以前の取り組みで普及した2つの主要な欠陥に対処するために設計された先駆的なアプローチである。
これは、サンプルの様々な視点に対してターゲットエンコーダの表現を統一するサンプルワイドプロトタイプによって達成される。
より強力な有効性を得るために、我々はサロゲートエンコーダを訓練し、ミスマッチした埋め込み-プロトタイプペアを識別するマルチリレーショナル抽出損失を開発する。
論文 参考訳(メタデータ) (2023-12-01T15:03:29Z) - A Relaxed Optimization Approach for Adversarial Attacks against Neural
Machine Translation Models [44.04452616807661]
本稿では,ニューラルネットワーク翻訳(NMT)モデルに対する最適化に基づく逆攻撃を提案する。
実験の結果,NMTモデルの翻訳品質は有意に低下した。
我々の攻撃は、成功率、類似性保存、翻訳品質への影響、トークンエラー率の点で、ベースラインを上回っている。
論文 参考訳(メタデータ) (2023-06-14T13:13:34Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Robust Deep Learning Ensemble against Deception [11.962128272844158]
XEnsembleは、機械学習モデルの敵対的堅牢性を高めるための多様性アンサンブル検証手法である。
我々は,XEnsembleが,敵の例に対して高い防御成功率,非分配データ入力に対して高い検出成功率を達成することを示す。
論文 参考訳(メタデータ) (2020-09-14T17:20:01Z) - Generalized Adversarially Learned Inference [42.40405470084505]
我々は、画像生成器とエンコーダを逆向きにトレーニングし、画像と潜時ベクトル対の2つの結合分布を一致させることにより、GAN内の潜時変数を推定する方法を開発した。
我々は、望まれるソリューションに関する事前または学習知識に基づいて、再構築、自己監督、その他の形式の監督に関する複数のフィードバック層を組み込んだ。
論文 参考訳(メタデータ) (2020-06-15T02:18:13Z) - Creating Synthetic Datasets via Evolution for Neural Program Synthesis [77.34726150561087]
いくつかのプログラム合成手法は、ランダムに生成された例と異なるデータ分布によく一般化されていることを示す。
本稿では, 合成データ分布のバイアスを制御し, 現在の手法より優れていることを示すための, 新たな敵対的手法を提案する。
論文 参考訳(メタデータ) (2020-03-23T18:34:15Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。