論文の概要: JMA: a General Algorithm to Craft Nearly Optimal Targeted Adversarial
Example
- arxiv url: http://arxiv.org/abs/2401.01199v1
- Date: Tue, 2 Jan 2024 13:03:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 14:02:42.109782
- Title: JMA: a General Algorithm to Craft Nearly Optimal Targeted Adversarial
Example
- Title(参考訳): jma: ほぼ最適な対向的例を作るための一般的なアルゴリズム
- Authors: Benedetta Tondi, Wei Guo, Mauro Barni
- Abstract要約: 本稿では,ヤコビアン誘導マハラノビス距離項の最小化を前提とした,より一般的な,理論的に健全な標的攻撃を提案する。
提案アルゴリズムは、もともとSzegedyらによって導入された逆例問題の線形化版に対する最適解を提供する。
- 参考スコア(独自算出の注目度): 24.953032059932525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of the approaches proposed so far to craft targeted adversarial examples
against Deep Learning classifiers are highly suboptimal and typically rely on
increasing the likelihood of the target class, thus implicitly focusing on
one-hot encoding settings. In this paper, we propose a more general,
theoretically sound, targeted attack that resorts to the minimization of a
Jacobian-induced MAhalanobis distance (JMA) term, taking into account the
effort (in the input space) required to move the latent space representation of
the input sample in a given direction. The minimization is solved by exploiting
the Wolfe duality theorem, reducing the problem to the solution of a
Non-Negative Least Square (NNLS) problem. The proposed algorithm provides an
optimal solution to a linearized version of the adversarial example problem
originally introduced by Szegedy et al. \cite{szegedy2013intriguing}. The
experiments we carried out confirm the generality of the proposed attack which
is proven to be effective under a wide variety of output encoding schemes.
Noticeably, the JMA attack is also effective in a multi-label classification
scenario, being capable to induce a targeted modification of up to half the
labels in a complex multilabel classification scenario with 20 labels, a
capability that is out of reach of all the attacks proposed so far. As a
further advantage, the JMA attack usually requires very few iterations, thus
resulting more efficient than existing methods.
- Abstract(参考訳): 現在提案されているDeep Learning分類器に対するターゲット対向的な例を作成するアプローチの多くは、非常に最適であり、典型的にはターゲットクラスの可能性を高めることに依存しており、暗黙的にワンホット符号化設定に焦点を当てている。
本稿では,入力サンプルの潜在空間表現を所定の方向に移動させるために必要な労力(入力空間内)を考慮して,ジャコビアンによるマハラノビス距離(jma)項の最小化を前提とした,より一般的な,理論的に健全な標的攻撃を提案する。
最小化はウルフ双対性定理を利用して解決され、非負極正方形問題(NNLS)の解に還元される。
提案アルゴリズムは、もともとSzegedyらによって導入された逆例問題の線形化版に対する最適解を提供する。
に登場。
本実験は,多種多様な出力符号化方式において有効であることが証明された攻撃の汎用性を確認するものである。
注目すべきなのは、jma攻撃はマルチラベル分類シナリオでも有効であり、20のラベルを持つ複雑なマルチラベル分類シナリオにおいて、最大半分のラベルをターゲットとする修正を誘導することができる。
さらなる利点として、JMA攻撃は通常、非常に少数のイテレーションを必要とするため、既存のメソッドよりも効率が良い。
関連論文リスト
- Jacobian Descent for Multi-Objective Optimization [0.6138671548064355]
勾配降下は単目的最適化に限られる。
Jacobian descent (JD) はベクトル値の目的関数のヤコビ行列を用いてパラメータを反復的に更新する。
論文 参考訳(メタデータ) (2024-06-23T22:06:25Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Refine, Discriminate and Align: Stealing Encoders via Sample-Wise Prototypes and Multi-Relational Extraction [57.16121098944589]
RDAは、事前訓練されたエンコーダを盗むために、以前の取り組みで普及した2つの主要な欠陥に対処するために設計された先駆的なアプローチである。
これは、サンプルの様々な視点に対してターゲットエンコーダの表現を統一するサンプルワイドプロトタイプによって達成される。
より強力な有効性を得るために、我々はサロゲートエンコーダを訓練し、ミスマッチした埋め込み-プロトタイプペアを識別するマルチリレーショナル抽出損失を開発する。
論文 参考訳(メタデータ) (2023-12-01T15:03:29Z) - Strong Transferable Adversarial Attacks via Ensembled Asymptotically Normal Distribution Learning [24.10329164911317]
多重漸近正規分布攻撃(MultiANDA)という手法を提案する。
我々は勾配上昇(SGA)の正規性を利用して摂動の後方分布を近似する。
提案手法は、防御の有無にかかわらず、ディープラーニングモデルに対する10の最先端のブラックボックス攻撃より優れる。
論文 参考訳(メタデータ) (2022-09-24T08:57:10Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Proximal Splitting Adversarial Attacks for Semantic Segmentation [33.53113858999438]
ホワイトボックス攻撃は、近位ラグランジアンノルムに基づく敵対的セグメンテーションモデルを騙すことができることを示す。
セグメンテーションに適応した分類攻撃と同様に,従来提案した攻撃よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-06-14T21:23:02Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。