論文の概要: ADVREPAIR:Provable Repair of Adversarial Attack
- arxiv url: http://arxiv.org/abs/2404.01642v1
- Date: Tue, 2 Apr 2024 05:16:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 17:58:09.511942
- Title: ADVREPAIR:Provable Repair of Adversarial Attack
- Title(参考訳): ADVREPAIR : 敵攻撃の予防的修復
- Authors: Zhiming Chi, Jianan Ma, Pengfei Yang, Cheng-Chao Huang, Renjue Li, Xiaowei Huang, Lijun Zhang,
- Abstract要約: ディープニューラルネットワーク(DNN)は、ますます安全クリティカルなドメインにデプロイされているが、敵の攻撃に対する脆弱性は深刻な安全リスクを引き起こす。
制限されたデータを用いた既存のニューロンレベルの手法は、敵の攻撃機構の複雑さにより、敵の修正に有効性が欠如している。
本稿では,限られたデータを用いた敵攻撃の是正可能な修復手法であるADVREPAIRを提案する。
- 参考スコア(独自算出の注目度): 15.580097790702508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are increasingly deployed in safety-critical domains, but their vulnerability to adversarial attacks poses serious safety risks. Existing neuron-level methods using limited data lack efficacy in fixing adversaries due to the inherent complexity of adversarial attack mechanisms, while adversarial training, leveraging a large number of adversarial samples to enhance robustness, lacks provability. In this paper, we propose ADVREPAIR, a novel approach for provable repair of adversarial attacks using limited data. By utilizing formal verification, ADVREPAIR constructs patch modules that, when integrated with the original network, deliver provable and specialized repairs within the robustness neighborhood. Additionally, our approach incorporates a heuristic mechanism for assigning patch modules, allowing this defense against adversarial attacks to generalize to other inputs. ADVREPAIR demonstrates superior efficiency, scalability and repair success rate. Different from existing DNN repair methods, our repair can generalize to general inputs, thereby improving the robustness of the neural network globally, which indicates a significant breakthrough in the generalization capability of ADVREPAIR.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、ますます安全クリティカルなドメインにデプロイされているが、敵の攻撃に対する脆弱性は深刻な安全リスクを引き起こす。
制限されたデータを用いた既存のニューロンレベルの手法は、敵の攻撃機構が本質的に複雑であるために敵の修正に効果がないが、敵の訓練は、多数の敵のサンプルを活用して堅牢性を向上するが、実行可能性に欠ける。
本稿では,限られたデータを用いた敵攻撃の即時修復のための新しいアプローチであるADVREPAIRを提案する。
ADVREPAIRは、形式的検証を利用することで、元のネットワークと統合されたパッチモジュールを構築し、ロバストネス地区内で証明可能で特殊な修復を行う。
さらに,本手法では,パッチモジュールを割り当てるヒューリスティックな機構を導入し,敵攻撃に対する防御を他の入力に一般化する。
ADVREPAIRは優れた効率、スケーラビリティ、修理成功率を示す。
既存のDNN修復法と異なり、我々の修復は一般的な入力に一般化することができ、それによって世界中のニューラルネットワークの堅牢性が向上し、ADVREPAIRの一般化能力の著しいブレークスルーを示す。
関連論文リスト
- Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - A Robust Optimisation Perspective on Counterexample-Guided Repair of
Neural Networks [2.82532357999662]
本稿では, 逆例誘導修復をロバストな最適化アルゴリズムとみなすことができることを示す。
我々は、より抑制された機械学習モデルに対する終端を証明し、一般的な環境での終端を証明した。
論文 参考訳(メタデータ) (2023-01-26T19:00:02Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Defensive Patches for Robust Recognition in the Physical World [111.46724655123813]
データエンドディフェンスは、モデルを変更する代わりに入力データの操作によって堅牢性を改善する。
従来のデータエンドディフェンスは、様々なノイズに対する低一般化と、複数のモデル間での弱い転送可能性を示している。
モデルがこれらの機能をよりよく活用することを支援することにより、これらの問題に対処するための防御パッチ生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-13T07:34:51Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - ArchRepair: Block-Level Architecture-Oriented Repairing for Deep Neural
Networks [13.661704974188872]
本稿では,ブロックレベルでのディープニューラルネットワーク(DNN)の新たな修復方向を提案する。
本稿では,脆弱なブロックローカライゼーションのための逆アウェアスペクトル分析法を提案する。
また,対象のブロックを連続的に修復する検索空間に緩和するアーキテクチャ指向の検索ベース修復を提案する。
論文 参考訳(メタデータ) (2021-11-26T06:35:15Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Provable Repair of Deep Neural Networks [8.55884254206878]
ディープニューラルネットワーク(Deep Neural Networks, DNN)は、過去10年間で人気を博し、航空機の衝突回避などの安全上重要な領域で使われている。
本稿では,安全でない動作が見つかるとDNNの修正に対処する。
与えられた仕様を満たす新しいネットワークN'を構築するためにネットワークNを修復する問題である実証可能な修復問題を紹介します。
論文 参考訳(メタデータ) (2021-04-09T15:03:53Z) - NNrepair: Constraint-based Repair of Neural Network Classifiers [10.129874872336762]
NNrepairはニューラルネットワークの分類器を修復するための制約ベースの技術である。
NNrepairはまず、障害のあるネットワークパラメータを見つけるために障害ローカリゼーションを使用します。
その後、制約解決を使用して修復を行い、パラメータに小さな修正を加えて欠陥を修復する。
論文 参考訳(メタデータ) (2021-03-23T13:44:01Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。