論文の概要: Simple black-box universal adversarial attacks on medical image
classification based on deep neural networks
- arxiv url: http://arxiv.org/abs/2108.04979v1
- Date: Wed, 11 Aug 2021 00:59:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 19:05:14.694153
- Title: Simple black-box universal adversarial attacks on medical image
classification based on deep neural networks
- Title(参考訳): 深部ニューラルネットワークに基づく医療画像分類における単純なブラックボックスの普遍的敵攻撃
- Authors: Kazuki Koga, Kazuhiro Takemoto
- Abstract要約: UAP(Universal Adversarial attacks)は、単一の摂動のみを使用して、最も深いニューラルネットワーク(DNN)タスクを妨害する。
ブラックボックス条件下では, 比較的小さなデータセットを用いて, UAPは容易に生成可能であることを示す。
ブラックボックスUAPは非標的攻撃と標的攻撃の両方を実行するために使用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Universal adversarial attacks, which hinder most deep neural network (DNN)
tasks using only a small single perturbation called a universal adversarial
perturbation (UAP), is a realistic security threat to the practical application
of a DNN. In particular, such attacks cause serious problems in medical
imaging. Given that computer-based systems are generally operated under a
black-box condition in which only queries on inputs are allowed and outputs are
accessible, the impact of UAPs seems to be limited because well-used algorithms
for generating UAPs are limited to a white-box condition in which adversaries
can access the model weights and loss gradients. Nevertheless, we demonstrate
that UAPs are easily generatable using a relatively small dataset under
black-box conditions. In particular, we propose a method for generating UAPs
using a simple hill-climbing search based only on DNN outputs and demonstrate
the validity of the proposed method using representative DNN-based medical
image classifications. Black-box UAPs can be used to conduct both non-targeted
and targeted attacks. Overall, the black-box UAPs showed high attack success
rates (40% to 90%), although some of them had relatively low success rates
because the method only utilizes limited information to generate UAPs. The
vulnerability of black-box UAPs was observed in several model architectures.
The results indicate that adversaries can also generate UAPs through a simple
procedure under the black-box condition to foil or control DNN-based medical
image diagnoses, and that UAPs are a more realistic security threat.
- Abstract(参考訳): UAP(Universal Adversarial Perturbation)と呼ばれる単一の摂動のみを使用して、最も深いニューラルネットワーク(DNN)タスクを妨害するユニバーサル敵攻撃は、DNNの実践的応用に対する現実的なセキュリティ脅威である。
特に、このような攻撃は医療画像の深刻な問題を引き起こす。
コンピュータベースシステムは通常、入力に対するクエリのみを許可し、出力へのアクセスが可能なブラックボックス条件で運用されているため、UAPの生成によく使用されるアルゴリズムは、敵がモデルの重みや損失勾配にアクセスできるホワイトボックス条件に限られているため、UAPの影響は限られているように思われる。
しかしながら,UAPはブラックボックス条件下で比較的小さなデータセットを用いて容易に生成可能であることを示す。
具体的には、DNN出力のみに基づく単純な丘登り探索を用いてUAPを生成する方法を提案し、代表的DNNに基づく医用画像分類を用いて提案手法の有効性を実証する。
ブラックボックス uap は非標的攻撃と標的攻撃の両方に使用できる。
総じて、ブラックボックスUAPは高い攻撃成功率(40%から90%)を示したが、一部はUAPを生成するために限られた情報しか利用していないため、比較的低い成功率を示した。
ブラックボックスUAPの脆弱性は、いくつかのモデルアーキテクチャで観察された。
その結果、敵はブラックボックス条件下で単純な手順で、DNNベースの医療画像診断を偽装したり制御したりすることでUAPを生成でき、UAPはより現実的なセキュリティ脅威であることが示唆された。
関連論文リスト
- Microbial Genetic Algorithm-based Black-box Attack against Interpretable
Deep Learning Systems [16.13790238416691]
ホワイトボックス環境では、解釈可能なディープラーニングシステム(IDLS)が悪意のある操作に対して脆弱であることが示されている。
本稿では,IDLSに対するクエリ効率の高いScoreベースのブラックボックス攻撃QuScoreを提案する。
論文 参考訳(メタデータ) (2023-07-13T00:08:52Z) - General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments [75.58342268895564]
我々は,DGN(Deep Generative Networks)と新たなトレーニング機構を併用して,分散ギャップを解消する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を実証している。
論文 参考訳(メタデータ) (2022-12-11T01:51:31Z) - Towards Lightweight Black-Box Attacks against Deep Neural Networks [70.9865892636123]
ブラックボックス攻撃は、いくつかのテストサンプルしか利用できない実用的な攻撃を引き起こす可能性があると我々は主張する。
いくつかのサンプルが必要なので、これらの攻撃を軽量なブラックボックス攻撃と呼ぶ。
近似誤差を軽減するために,Error TransFormer (ETF) を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:43:03Z) - Unrestricted Black-box Adversarial Attack Using GAN with Limited Queries [1.7205106391379026]
GANを用いた非制限逆例を生成するための新しい手法を提案する。
提案手法は遅延空間における決定に基づく攻撃の利点を効果的に活用する。
提案手法は,ブラックボックス設定における限定クエリを用いた分類モデルのロバスト性を評価するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-08-24T15:28:46Z) - Universal Adversarial Attacks on Neural Networks for Power Allocation in
a Massive MIMO System [60.46526086158021]
我々は,White-box や Black-box 攻撃として,UAP (Universal Adversarial Perturbation) 工法を提案する。
その結果, 敵の成功率は最大60%, 40%の確率で達成できることがわかった。
提案されたUAPベースの攻撃は、古典的なホワイトボックス攻撃に比べて実用的で現実的なアプローチである。
論文 参考訳(メタデータ) (2021-10-10T08:21:03Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Learning One Class Representations for Face Presentation Attack
Detection using Multi-channel Convolutional Neural Networks [7.665392786787577]
プレゼンテーションアタック検出(PAD)メソッドは、目に見えないアタックを一般化するのに失敗することが多い。
マルチチャネル畳み込みニューラルネットワーク(MCCNN)で学習する一クラス分類器を用いたPADのための新しいフレームワークを提案する。
新たな損失関数が導入されたため、ネットワークは攻撃の表現から遠ざかって、ボナフィドクラスのコンパクトな埋め込みを学習せざるを得なくなった。
提案フレームワークは,ボナフィドおよび(既知の)攻撃クラスから堅牢なPADシステムを学習するための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-07-22T14:19:33Z) - Towards Query-Efficient Black-Box Adversary with Zeroth-Order Natural
Gradient Descent [92.4348499398224]
ブラックボックスの敵攻撃手法は、実用性や単純さから特に注目されている。
敵攻撃を設計するためのゼロ階自然勾配降下法(ZO-NGD)を提案する。
ZO-NGDは、最先端攻撃法と比較して、モデルクエリの複雑さが大幅に低い。
論文 参考訳(メタデータ) (2020-02-18T21:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。