論文の概要: FooBaR: Fault Fooling Backdoor Attack on Neural Network Training
- arxiv url: http://arxiv.org/abs/2109.11249v1
- Date: Thu, 23 Sep 2021 09:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 20:33:36.527196
- Title: FooBaR: Fault Fooling Backdoor Attack on Neural Network Training
- Title(参考訳): foobar: ニューラルネットワークトレーニングにおけるバックドア攻撃の失敗
- Authors: Jakub Breier, Xiaolu Hou, Mart\'in Ochoa and Jesus Solano
- Abstract要約: ニューラルネットワークのトレーニングフェーズ中に障害を注入することで,新たな攻撃パラダイムを探索する。
このような攻撃は、トレーニングフェーズの障害攻撃がネットワークにバックドアを注入し、攻撃者が不正な入力を生成できるようにするような、不正なバックドアと呼ばれる。
- 参考スコア(独自算出の注目度): 5.639451539396458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network implementations are known to be vulnerable to physical attack
vectors such as fault injection attacks. As of now, these attacks were only
utilized during the inference phase with the intention to cause a
misclassification. In this work, we explore a novel attack paradigm by
injecting faults during the training phase of a neural network in a way that
the resulting network can be attacked during deployment without the necessity
of further faulting. In particular, we discuss attacks against ReLU activation
functions that make it possible to generate a family of malicious inputs, which
are called fooling inputs, to be used at inference time to induce controlled
misclassifications. Such malicious inputs are obtained by mathematically
solving a system of linear equations that would cause a particular behaviour on
the attacked activation functions, similar to the one induced in training
through faulting. We call such attacks fooling backdoors as the fault attacks
at the training phase inject backdoors into the network that allow an attacker
to produce fooling inputs. We evaluate our approach against multi-layer
perceptron networks and convolutional networks on a popular image
classification task obtaining high attack success rates (from 60% to 100%) and
high classification confidence when as little as 25 neurons are attacked while
preserving high accuracy on the originally intended classification task.
- Abstract(参考訳): ニューラルネットワークの実装は、障害注入攻撃のような物理的攻撃ベクトルに対して脆弱であることが知られている。
現在、これらの攻撃は推論段階でのみ利用されており、誤分類を引き起こす意図があった。
本研究では,ニューラルネットワークのトレーニングフェーズ中に障害を注入することで,さらに障害を発生させることなく,ネットワークを展開中に攻撃できる新たな攻撃パラダイムを探求する。
特に,reluアクティベーション関数に対する攻撃について検討し,不正入力と呼ばれる悪質な入力を発生させ,その入力を推論時に使用し,制御された誤分類を誘発できるようにする。
このような悪意のある入力は、攻撃された活性化関数に特定の振る舞いを引き起こす線形方程式のシステムを数学的に解くことで得られる。
トレーニングフェーズの障害攻撃がネットワークにバックドアを注入し、攻撃者が不正な入力を生成できるようにするため、このような攻撃をバックドアを騙すとします。
本研究は,多層パーセプトロンネットワークと畳み込みネットワークに対するアプローチを,攻撃成功率(60%から100%)の高い画像分類タスクで評価し,25個のニューロンを攻撃した場合の分類信頼度を,本来意図した分類タスクの精度を維持しながら評価する。
関連論文リスト
- Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - Poisoning Network Flow Classifiers [10.055241826257083]
本稿では,ネットワークトラフィックフロー分類器に対する毒性攻撃,特にバックドア攻撃に焦点を当てた。
学習データのみを改ざんすることを相手の能力に制約するクリーンラベル中毒の難易度シナリオについて検討した。
本稿では, モデル解釈可能性を利用したトリガー製作戦略について述べる。
論文 参考訳(メタデータ) (2023-06-02T16:24:15Z) - An Incremental Gray-box Physical Adversarial Attack on Neural Network
Training [36.244907785240876]
本稿では、ニューラルネットワークのトレーニングプロセスをターゲットにした、勾配のないグレーボックスインクリメンタルアタックを提案する。
提案した攻撃は、一般的に専門家によって守られていないデータ構造を攻撃することによって、そのリスクの高い特性を取得する。
論文 参考訳(メタデータ) (2023-02-20T09:48:11Z) - Few-shot Backdoor Attacks via Neural Tangent Kernels [31.85706783674533]
バックドア攻撃では、攻撃者が破損した例をトレーニングセットに注入する。
これらの攻撃の中心は、攻撃の成功率と、注入された破損したトレーニング例の数との間のトレードオフである。
ニューラルネットワークカーネルを用いて、攻撃されたモデルのトレーニングダイナミクスを近似し、強力な毒のサンプルを自動的に学習する。
論文 参考訳(メタデータ) (2022-10-12T05:30:00Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Backdoor Smoothing: Demystifying Backdoor Attacks on Deep Neural
Networks [25.23881974235643]
バックドア攻撃は、引き起こされたサンプルの周りでよりスムーズな決定関数を誘導することを示します。
実験の結果,入力サンプルにトリガーを付加するとスムーズさが増加し,この現象はより成功した攻撃に対してより顕著であることがわかった。
論文 参考訳(メタデータ) (2020-06-11T18:28:54Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。