論文の概要: Multi-attacks: Many images $+$ the same adversarial attack $\to$ many
target labels
- arxiv url: http://arxiv.org/abs/2308.03792v1
- Date: Fri, 4 Aug 2023 14:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 15:47:45.724028
- Title: Multi-attacks: Many images $+$ the same adversarial attack $\to$ many
target labels
- Title(参考訳): マルチアタック:多くの画像が$+$同じ敵攻撃を$\to$多くのターゲットラベル
- Authors: Stanislav Fort
- Abstract要約: 我々は,n$画像のクラスを変更する1対逆摂動$P$を簡単に設計できることを示す。
私たちのコードはGitHubで入手可能です。
- 参考スコア(独自算出の注目度): 8.446798721296906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that we can easily design a single adversarial perturbation $P$ that
changes the class of $n$ images $X_1,X_2,\dots,X_n$ from their original,
unperturbed classes $c_1, c_2,\dots,c_n$ to desired (not necessarily all the
same) classes $c^*_1,c^*_2,\dots,c^*_n$ for up to hundreds of images and target
classes at once. We call these \textit{multi-attacks}. Characterizing the
maximum $n$ we can achieve under different conditions such as image resolution,
we estimate the number of regions of high class confidence around a particular
image in the space of pixels to be around $10^{\mathcal{O}(100)}$, posing a
significant problem for exhaustive defense strategies. We show several
immediate consequences of this: adversarial attacks that change the resulting
class based on their intensity, and scale-independent adversarial examples. To
demonstrate the redundancy and richness of class decision boundaries in the
pixel space, we look for its two-dimensional sections that trace images and
spell words using particular classes. We also show that ensembling reduces
susceptibility to multi-attacks, and that classifiers trained on random labels
are more susceptible. Our code is available on GitHub.
- Abstract(参考訳): 我々は、$n$イメージ$X_1,X_2,\dots,X_n$のクラスを、元の未成熟クラス$c_1,c_2,\dots,c_n$から、(必ずしも同じではない)クラス$c^*_1,c^*_2,\dots,c^*_n$のクラスを、最大数百のイメージとターゲットクラスに対して、容易に設計できることを示します。
これを \textit{multi-attacks} と呼ぶ。
画像解像度などの異なる条件下で達成できる最大$nを特徴付けるため、画素空間内の特定の画像の周囲の高階信頼度領域の数は、約10^{\mathcal{O}(100)}$と推定し、徹底的な防衛戦略において重大な問題となる。
我々は、その強度に基づいて結果のクラスを変更する敵の攻撃と、スケールに依存しない敵の例を示す。
画素空間におけるクラス決定境界の冗長性とリッチ性を示すために,特定のクラスを用いて画像や綴り語をトレースする2次元セクションを提案する。
また,複数の攻撃に対する感受性を低減し,ランダムラベルで訓練された分類器の方が感受性が高いことを示した。
コードはgithubから入手できます。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - All in an Aggregated Image for In-Image Learning [22.605706711147405]
本稿では,In-Image Learning (I$2$L) と呼ばれる新しいコンテキスト内学習(ICL)機構を提案する。
I$2$Lは、実演例、視覚的手がかり、思考の連鎖的推論を集約されたイメージに組み合わせている。
本研究では,MathVista 上で I$2$L と I$2$L-Hybrid の有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-28T01:32:59Z) - NoisyTwins: Class-Consistent and Diverse Image Generation through
StyleGANs [48.47153565765762]
我々は NoisyTwins を導入し、$mathcalW$ 空間の自己超越性に基づいてラテントをデコレーションする。
我々は,ImageNet-LTとiNaturalist 2019の大規模実世界の長期データセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2023-04-12T13:56:45Z) - Multiple Perturbation Attack: Attack Pixelwise Under Different
$\ell_p$-norms For Better Adversarial Performance [17.57296795184232]
敵の攻撃と防御は、通常、防御者や攻撃者が時間をかけて進化する猫とマウスのゲームに例えられる。
様々な$ell_p$勾配の投影をピクセルレベルで組み合わせ、対向対向摂動を実現するという自然なアプローチを思いついた。
具体的には、攻撃性能を最大化するために各ピクセルを摂動する方法を学習し、対向的な例の全体的な視覚的非受容性を維持できる。
論文 参考訳(メタデータ) (2022-12-05T15:38:37Z) - Rethinking Generalization in Few-Shot Classification [28.809141478504532]
単一のイメージレベルのアノテーションは、しばしば画像の内容の小さなサブセットを正しく記述するだけである。
本稿では、textitfew-shot Learning$の文脈における意味を詳しく調べる。
我々は、きめ細かいラベルの欠如を克服するため、マスク付き画像モデリングによるネットワークの教師なしトレーニングの最近の進歩の上に構築する。
論文 参考訳(メタデータ) (2022-06-15T03:05:21Z) - On Generating Transferable Targeted Perturbations [102.3506210331038]
伝達性の高い標的摂動に対する新しい生成的アプローチを提案する。
私たちのアプローチは、ターゲットクラスの「乱れた画像分布」にマッチし、高いターゲット転送率につながります。
論文 参考訳(メタデータ) (2021-03-26T17:55:28Z) - Isometric Propagation Network for Generalized Zero-shot Learning [72.02404519815663]
一般的な戦略は、クラス属性の意味空間と、見たクラスとそのデータに基づいて画像の視覚空間とのマッピングを学ぶことである。
本稿では,各空間内のクラス間の関係を強化し,2つの空間におけるクラス依存性を整合させるIsometric propagation Network (IPN)を提案する。
IPNは3つの人気のあるゼロショット学習ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-03T12:45:38Z) - You Only Query Once: Effective Black Box Adversarial Attacks with
Minimal Repeated Queries [4.794822439017277]
異なる画像のシーケンスを1回だけクエリすることで、ブラックボックス設定で逆の摂動を作ることができることを示す。
この攻撃は、多くの類似クエリの検出を防止し、クラス化子への入力に適用されると誤分類を引き起こす摂動を生成する。
論文 参考訳(メタデータ) (2021-01-29T19:16:51Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Seed the Views: Hierarchical Semantic Alignment for Contrastive
Representation Learning [116.91819311885166]
一つの画像から生成されたビューをtextbfCross-samples や Multi-level representation に拡張することで,階層的なセマンティックアライメント戦略を提案する。
提案手法はCsMlと呼ばれ,サンプル間の多層視覚表現を堅牢な方法で統合する機能を備えている。
論文 参考訳(メタデータ) (2020-12-04T17:26:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。