論文の概要: ADVREPAIR:Provable Repair of Adversarial Attack
- arxiv url: http://arxiv.org/abs/2404.01642v1
- Date: Tue, 2 Apr 2024 05:16:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 17:58:09.511942
- Title: ADVREPAIR:Provable Repair of Adversarial Attack
- Title(参考訳): ADVREPAIR : 敵攻撃の予防的修復
- Authors: Zhiming Chi, Jianan Ma, Pengfei Yang, Cheng-Chao Huang, Renjue Li, Xiaowei Huang, Lijun Zhang,
- Abstract要約: ディープニューラルネットワーク(DNN)は、ますます安全クリティカルなドメインにデプロイされているが、敵の攻撃に対する脆弱性は深刻な安全リスクを引き起こす。
制限されたデータを用いた既存のニューロンレベルの手法は、敵の攻撃機構の複雑さにより、敵の修正に有効性が欠如している。
本稿では,限られたデータを用いた敵攻撃の是正可能な修復手法であるADVREPAIRを提案する。
- 参考スコア(独自算出の注目度): 15.580097790702508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are increasingly deployed in safety-critical domains, but their vulnerability to adversarial attacks poses serious safety risks. Existing neuron-level methods using limited data lack efficacy in fixing adversaries due to the inherent complexity of adversarial attack mechanisms, while adversarial training, leveraging a large number of adversarial samples to enhance robustness, lacks provability. In this paper, we propose ADVREPAIR, a novel approach for provable repair of adversarial attacks using limited data. By utilizing formal verification, ADVREPAIR constructs patch modules that, when integrated with the original network, deliver provable and specialized repairs within the robustness neighborhood. Additionally, our approach incorporates a heuristic mechanism for assigning patch modules, allowing this defense against adversarial attacks to generalize to other inputs. ADVREPAIR demonstrates superior efficiency, scalability and repair success rate. Different from existing DNN repair methods, our repair can generalize to general inputs, thereby improving the robustness of the neural network globally, which indicates a significant breakthrough in the generalization capability of ADVREPAIR.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、ますます安全クリティカルなドメインにデプロイされているが、敵の攻撃に対する脆弱性は深刻な安全リスクを引き起こす。
制限されたデータを用いた既存のニューロンレベルの手法は、敵の攻撃機構が本質的に複雑であるために敵の修正に効果がないが、敵の訓練は、多数の敵のサンプルを活用して堅牢性を向上するが、実行可能性に欠ける。
本稿では,限られたデータを用いた敵攻撃の即時修復のための新しいアプローチであるADVREPAIRを提案する。
ADVREPAIRは、形式的検証を利用することで、元のネットワークと統合されたパッチモジュールを構築し、ロバストネス地区内で証明可能で特殊な修復を行う。
さらに,本手法では,パッチモジュールを割り当てるヒューリスティックな機構を導入し,敵攻撃に対する防御を他の入力に一般化する。
ADVREPAIRは優れた効率、スケーラビリティ、修理成功率を示す。
既存のDNN修復法と異なり、我々の修復は一般的な入力に一般化することができ、それによって世界中のニューラルネットワークの堅牢性が向上し、ADVREPAIRの一般化能力の著しいブレークスルーを示す。
関連論文リスト
- Real-world Adversarial Defense against Patch Attacks based on Diffusion Model [34.86098237949215]
本稿では,DIFfusionをベースとした新しいDeFenderフレームワークであるDIFFenderを紹介する。
我々のアプローチの核心は、AAP(Adversarial Anomaly Perception)現象の発見である。
DIFFenderは、統一拡散モデルフレームワークにパッチのローカライゼーションと復元のタスクをシームレスに統合する。
論文 参考訳(メタデータ) (2024-09-14T10:38:35Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - FACADE: A Framework for Adversarial Circuit Anomaly Detection and
Evaluation [9.025997629442896]
FACADEは、ディープニューラルネットワークにおける教師なしの機械的異常検出のために設計されている。
我々のアプローチは、モデルの堅牢性を改善し、スケーラブルなモデル監視を強化し、現実のデプロイメント環境で有望なアプリケーションを実証することを目指している。
論文 参考訳(メタデータ) (2023-07-20T04:00:37Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - A Data Augmentation-based Defense Method Against Adversarial Attacks in
Neural Networks [7.943024117353317]
そこで本研究では,実生活制約に適合した完全ホワイトボックス攻撃を効果的に無効化する軽量防衛手法を開発した。
我々のモデルは、50発のBPDAによる高度な適応攻撃に耐えることができ、攻撃成功率をほぼゼロに抑えながら、目標モデルが約80%の精度を維持するのに役立ちます。
論文 参考訳(メタデータ) (2020-07-30T08:06:53Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。