論文の概要: mFI-PSO: A Flexible and Effective Method in Adversarial Image Generation
for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2006.03243v3
- Date: Sun, 8 May 2022 23:19:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 02:49:58.993248
- Title: mFI-PSO: A Flexible and Effective Method in Adversarial Image Generation
for Deep Neural Networks
- Title(参考訳): mfi-pso:深層ニューラルネットワークのための柔軟かつ効果的な逆画像生成法
- Authors: Hai Shu, Ronghua Shi, Qiran Jia, Hongtu Zhu, Ziqi Chen
- Abstract要約: ディープニューラルネットワーク(DNN)は、画像分類において大きな成功を収めているが、画像への小さな摂動を伴う敵攻撃に対して非常に脆弱である。
我々は, マニフォールドに基づく第1次影響尺度を用いて, 脆弱な画像と画素選択を行う, mFI-PSO と呼ばれる新しい手法を開発した。
我々のmFI-PSOは、乱画素数、誤分類確率、対象の不正なクラスについて、フレキシブルでカスタマイズされた選択肢で、効果的に敵画像を設計できる。
- 参考スコア(独自算出の注目度): 10.569316932332548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have achieved great success in image
classification, but can be very vulnerable to adversarial attacks with small
perturbations to images. To improve adversarial image generation for DNNs, we
develop a novel method, called mFI-PSO, which utilizes a Manifold-based
First-order Influence measure for vulnerable image and pixel selection and the
Particle Swarm Optimization for various objective functions. Our mFI-PSO can
thus effectively design adversarial images with flexible, customized options on
the number of perturbed pixels, the misclassification probability, and the
targeted incorrect class. Experiments demonstrate the flexibility and
effectiveness of our mFI-PSO in adversarial attacks and its appealing
advantages over some popular methods.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、画像分類において大きな成功を収めているが、画像への小さな摂動を伴う敵攻撃に対して非常に脆弱である。
DNNの対角画像生成を改善するため,マニフォールドに基づく第1次影響尺度と様々な目的関数に対するParticle Swarm Optimizationを併用した,mFI-PSOと呼ばれる新しい手法を開発した。
我々のmFI-PSOは、乱画素数、誤分類確率、対象の不正なクラスについて、フレキシブルでカスタマイズされた選択肢で、効果的に敵画像を設計できる。
実験は、敵攻撃におけるmFI-PSOの柔軟性と有効性を示し、いくつかの一般的な手法よりも優れた利点を示した。
関連論文リスト
- Improving Transferable Targeted Attacks with Feature Tuning Mixup [12.707753562907534]
ディープニューラルネットワークは、異なるモデル間で転送可能な例に脆弱性を示す。
ターゲットの攻撃伝達性を高めるために,FTM(Feature Tuning Mixup)を提案する。
提案手法は,計算コストを低く抑えつつ,最先端の手法よりも大幅に向上する。
論文 参考訳(メタデータ) (2024-11-23T13:18:25Z) - DDAP: Dual-Domain Anti-Personalization against Text-to-Image Diffusion Models [18.938687631109925]
拡散に基づくパーソナライズされたビジュアルコンテンツ生成技術は、大きなブレークスルーを達成した。
しかし、偽のニュースや個人をターゲットとするコンテンツを作るのに誤用された場合、これらの技術は社会的な危害をもたらす可能性がある。
本稿では,新しいDual-Domain Anti-Personalization framework(DDAP)を紹介する。
これら2つの手法を交互に組み合わせることで、DDAPフレームワークを構築し、両方のドメインの強みを効果的に活用する。
論文 参考訳(メタデータ) (2024-07-29T16:11:21Z) - Defending Spiking Neural Networks against Adversarial Attacks through Image Purification [20.492531851480784]
Spiking Neural Networks(SNN)は、神経科学と機械学習のギャップを埋めることを目的としている。
SNNは畳み込みニューラルネットワークのような敵の攻撃に弱い。
本稿では,SNNの堅牢性を高めるための生物学的にインスパイアされた手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T00:57:06Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Training Diffusion Models with Reinforcement Learning [82.29328477109826]
拡散モデルは、ログのような目的に近似して訓練される。
本稿では,下流目的のための拡散モデルを直接最適化するための強化学習手法について検討する。
本稿では,多段階決定問題としてデノベーションを行うことによって,ポリシー勾配アルゴリズムのクラスを実現する方法について述べる。
論文 参考訳(メタデータ) (2023-05-22T17:57:41Z) - Preemptive Image Robustification for Protecting Users against
Man-in-the-Middle Adversarial Attacks [16.017328736786922]
Man-in-the-Middleの敵対者は、ウェブユーザーがオンラインでアップロードした画像を悪意を持って傍受し、妨害する。
この種の攻撃は、単純なパフォーマンス劣化の上に厳しい倫理的懸念を引き起こす可能性がある。
本研究では, 対向摂動に頑健な自然画像近傍の点を求める2段階最適化アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-12-10T16:06:03Z) - Human Imperceptible Attacks and Applications to Improve Fairness [1.2375842401629515]
人間には受け入れられない小さな摂動は、よく訓練されたディープニューラルネットワークの性能を著しく低下させる可能性がある。
本研究では,人間による画像品質評価手法を統合した分散ロバスト最適化フレームワークを提案する。
我々の攻撃アルゴリズムは、他の最先端の人間の知覚不可能な攻撃方法よりも高品質な(人間には認識できない)攻撃を生成する。
論文 参考訳(メタデータ) (2021-11-30T17:54:13Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z) - DeepEMD: Differentiable Earth Mover's Distance for Few-Shot Learning [122.51237307910878]
我々は,画像領域間の最適なマッチングの新しい視点から,少数ショット画像分類法を開発した。
我々は、高密度画像表現間の構造距離を計算するために、Earth Mover's Distance (EMD) を用いている。
定式化において重要な要素の重みを生成するために,我々は相互参照機構を設計する。
論文 参考訳(メタデータ) (2020-03-15T08:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。