論文の概要: ConFoc: Content-Focus Protection Against Trojan Attacks on Neural
Networks
- arxiv url: http://arxiv.org/abs/2007.00711v1
- Date: Wed, 1 Jul 2020 19:25:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:03:27.463154
- Title: ConFoc: Content-Focus Protection Against Trojan Attacks on Neural
Networks
- Title(参考訳): ConFoc: ニューラルネットワーク上のトロイの木馬攻撃に対するコンテンツフォーカス保護
- Authors: Miguel Villarreal-Vasquez and Bharat Bhargava
- Abstract要約: トロイの木馬攻撃は、推測やテストの時間に悪用されるマークまたはトリガーのサンプルを使用して、トレーニング時にいくつかの誤った振る舞いを挿入する。
本稿では、DNNが入力のスタイルを無視してコンテンツに集中するように教えられるトロイの木馬攻撃に対する防御手法を提案する。
その結果,本手法は全攻撃における攻撃成功率を1%に低下させることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have been applied successfully in computer
vision. However, their wide adoption in image-related applications is
threatened by their vulnerability to trojan attacks. These attacks insert some
misbehavior at training using samples with a mark or trigger, which is
exploited at inference or testing time. In this work, we analyze the
composition of the features learned by DNNs at training. We identify that they,
including those related to the inserted triggers, contain both content
(semantic information) and style (texture information), which are recognized as
a whole by DNNs at testing time. We then propose a novel defensive technique
against trojan attacks, in which DNNs are taught to disregard the styles of
inputs and focus on their content only to mitigate the effect of triggers
during the classification. The generic applicability of the approach is
demonstrated in the context of a traffic sign and a face recognition
application. Each of them is exposed to a different attack with a variety of
triggers. Results show that the method reduces the attack success rate
significantly to values < 1% in all the tested attacks while keeping as well as
improving the initial accuracy of the models when processing both benign and
adversarial data.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)はコンピュータビジョンにうまく応用されている。
しかし、画像関連アプリケーションで広く採用されているのは、トロイの木馬攻撃に対する脆弱性によって脅かされている。
これらの攻撃は、推測やテスト時に悪用されるマークまたはトリガーのサンプルを使用して、トレーニング時にいくつかの誤った振る舞いを挿入する。
そこで本研究では,DNNが訓練時に学んだ特徴の構成を分析する。
挿入されたトリガに関連するものを含むそれらが、テスト時にDNNによって全体として認識されるコンテンツ(意味情報)とスタイル(テクスチャ情報)の両方を含むことを確認した。
そこで我々は,DNNが入力のスタイルを無視し,その内容に焦点を合わせ,分類中のトリガーの効果を緩和する,新たなトロイの木馬攻撃防御手法を提案する。
このアプローチの汎用的適用性は、交通標識と顔認識アプリケーションという文脈で実証されている。
それぞれが、さまざまなトリガーを持つ別の攻撃にさらされる。
その結果,本手法は,攻撃成功率を全攻撃において1%に低下させるとともに,良性データと逆性データの両方を処理する際のモデルの初期精度の向上も図っている。
関連論文リスト
- Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - BppAttack: Stealthy and Efficient Trojan Attacks against Deep Neural
Networks via Image Quantization and Contrastive Adversarial Learning [13.959966918979395]
ディープニューラルネットワークはトロイの木馬攻撃に弱い。
既存の攻撃では目に見えるパターンをトリガーとして使用しており、人間の検査に弱い。
我々はステルス的で効率的なトロイア攻撃BppAttackを提案する。
論文 参考訳(メタデータ) (2022-05-26T14:15:19Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - Learning from Attacks: Attacking Variational Autoencoder for Improving
Image Classification [17.881134865491063]
敵対的攻撃はディープニューラルネットワーク(DNN)の堅牢性に対する脅威と見なされることが多い。
この研究は、異なる視点から敵の攻撃を分析する。つまり、敵の例は、予測に有用な暗黙の情報を含んでいる。
データ自己表現とタスク固有の予測にDNNの利点を利用するアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-11T08:48:26Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Odyssey: Creation, Analysis and Detection of Trojan Models [91.13959405645959]
トロイの木馬攻撃は、一部のトレーニングサンプルにトリガーを挿入してトレーニングパイプラインを妨害し、トリガーを含むサンプルに対してのみ悪意ある動作をするようにモデルを訓練する。
既存のトロイの木馬検出器はトリガーの種類や攻撃について強い仮定をしている。
そこで本研究では,トロヤニング過程の影響を受け,本質的特性の分析に基づく検出器を提案する。
論文 参考訳(メタデータ) (2020-07-16T06:55:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。