論文の概要: EvoSeed: Unveiling the Threat on Deep Neural Networks with Real-World
Illusions
- arxiv url: http://arxiv.org/abs/2402.04699v1
- Date: Wed, 7 Feb 2024 09:39:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 16:05:21.699810
- Title: EvoSeed: Unveiling the Threat on Deep Neural Networks with Real-World
Illusions
- Title(参考訳): evoseed: 現実世界の錯覚でディープニューラルネットワークの脅威を露呈
- Authors: Shashank Kotyan, PoYuan Mao, Danilo Vasconcellos Vargas
- Abstract要約: EvoSeedは進化的戦略に基づく新しいアルゴリズムフレームワークで、自然な敵対的なサンプルを生成する。
提案手法は, 進化的アルゴリズムを用いて, 敵検体の品質向上を図っている。
- 参考スコア(独自算出の注目度): 8.701566919381225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are exploited using natural adversarial samples, which
have no impact on human perception but are misclassified. Current approaches
often rely on the white-box nature of deep neural networks to generate these
adversarial samples or alter the distribution of adversarial samples compared
to training distribution. To alleviate the limitations of current approaches,
we propose EvoSeed, a novel evolutionary strategy-based search algorithmic
framework to generate natural adversarial samples. Our EvoSeed framework uses
auxiliary Diffusion and Classifier models to operate in a model-agnostic
black-box setting. We employ CMA-ES to optimize the search for an adversarial
seed vector, which, when processed by the Conditional Diffusion Model, results
in an unrestricted natural adversarial sample misclassified by the Classifier
Model. Experiments show that generated adversarial images are of high image
quality and are transferable to different classifiers. Our approach
demonstrates promise in enhancing the quality of adversarial samples using
evolutionary algorithms. We hope our research opens new avenues to enhance the
robustness of deep neural networks in real-world scenarios. Project Website can
be accessed at \url{https://shashankkotyan.github.io/EvoSeed}.
- Abstract(参考訳): ディープニューラルネットワークは、人間の知覚に影響を与えないが、誤分類されている自然の敵対的なサンプルを用いて利用される。
現在のアプローチでは、ディープニューラルネットワークのホワイトボックスの性質を利用して、これらの逆サンプルを生成したり、逆サンプルの分布をトレーニング分布と比較したりしていることが多い。
現状のアプローチの限界を緩和するため,我々は,新しい進化戦略に基づく探索アルゴリズムフレームワークであるevoseedを提案する。
提案フレームワークは,補助拡散モデルと分類モデルを用いて,モデルに依存しないブラックボックス環境で動作する。
我々は,CMA-ESを用いて,条件付き拡散モデルによって処理された逆数ベクトルの探索を最適化し,非制限の自然逆数サンプルを分類モデルで誤分類する。
実験により、生成した逆向き画像は画像品質が高く、異なる分類器に転送可能であることが示された。
提案手法は, 進化的アルゴリズムを用いて, 敵検体の品質向上を図っている。
われわれの研究が、現実世界のシナリオにおけるディープニューラルネットワークの堅牢性を高める新しい道を開くことを願っている。
プロジェクトwebサイトは \url{https://shashankkotyan.github.io/evoseed} でアクセスできる。
関連論文リスト
- GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Generator Born from Classifier [66.56001246096002]
データサンプルに頼ることなく、イメージジェネレータを再構築することを目指している。
本稿では,ネットワークパラメータの収束条件を満たすために,ジェネレータを訓練する新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-05T03:41:17Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Adversarial Sampling for Fairness Testing in Deep Neural Network [0.0]
与えられたデータセット内のさまざまなクラスの画像にわたるディープニューラルネットワークモデルの予測において、公正性をテストするための逆サンプリング。
我々は、元の画像でニューラルネットワークモデルを訓練し、摂動または攻撃された画像でモデルをトレーニングすることはなかった。
モデルに逆方向サンプリングを施すと、逆方向サンプルが属する画像のもともとのカテゴリ/クラスを予測することができた。
論文 参考訳(メタデータ) (2023-03-06T03:55:37Z) - TSFool: Crafting Highly-Imperceptible Adversarial Time Series through
Multi-Objective Attack [6.698263855886704]
TSFoolと呼ばれる効率的な手法を提案する。
中心となる考え方は、「カモフラージュ係数」(Camouflage Coefficient)と呼ばれる新しい大域的な最適化目標であり、クラス分布から反対サンプルの非受容性を捉えるものである。
11のUCRデータセットとUEAデータセットの実験では、TSFoolは6つのホワイトボックスと3つのブラックボックスベンチマークアタックを著しく上回っている。
論文 参考訳(メタデータ) (2022-09-14T03:02:22Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Dynamic Bayesian Neural Networks [2.28438857884398]
私たちは、Hidden Markov Neural Networkと呼ばれる時間進化型ニューラルネットワークを定義します。
フィードフォワードニューラルネットワークの重みは、隠れマルコフモデルの隠れ状態によってモデル化される。
フィルタリングアルゴリズムは、重みを経る時間に進化する時間に対する変動近似を学習するために用いられる。
論文 参考訳(メタデータ) (2020-04-15T09:18:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。