論文の概要: Self-Healing Robust Neural Networks via Closed-Loop Control
- arxiv url: http://arxiv.org/abs/2206.12963v1
- Date: Sun, 26 Jun 2022 20:25:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 05:29:12.895781
- Title: Self-Healing Robust Neural Networks via Closed-Loop Control
- Title(参考訳): 閉ループ制御による自己修復ロバストニューラルネットワーク
- Authors: Zhuotong Chen, Qianxiao Li and Zheng Zhang
- Abstract要約: 典型的な自己修復機構は人体の免疫系である。
本稿では,ニューラルネットワークの学習後の自己修復について考察する。
本研究では,様々な攻撃や摂動によるエラーを自動的に検出し,修正するクローズドループ制御式を提案する。
- 参考スコア(独自算出の注目度): 23.360913637445964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the wide applications of neural networks, there have been increasing
concerns about their vulnerability issue. While numerous attack and defense
techniques have been developed, this work investigates the robustness issue
from a new angle: can we design a self-healing neural network that can
automatically detect and fix the vulnerability issue by itself? A typical
self-healing mechanism is the immune system of a human body. This
biology-inspired idea has been used in many engineering designs but is rarely
investigated in deep learning. This paper considers the post-training
self-healing of a neural network, and proposes a closed-loop control
formulation to automatically detect and fix the errors caused by various
attacks or perturbations. We provide a margin-based analysis to explain how
this formulation can improve the robustness of a classifier. To speed up the
inference of the proposed self-healing network, we solve the control problem
via improving the Pontryagin Maximum Principle-based solver. Lastly, we present
an error estimation of the proposed framework for neural networks with
nonlinear activation functions. We validate the performance on several network
architectures against various perturbations. Since the self-healing method does
not need a-priori information about data perturbations/attacks, it can handle a
broad class of unforeseen perturbations.
- Abstract(参考訳): ニューラルネットワークの幅広い応用にもかかわらず、脆弱性問題に対する懸念が高まっている。
多数の攻撃・防御技術が開発されているが、この研究は、新たな角度から堅牢性の問題を調査している。我々は、脆弱性を自動的に検出し、修正できる自己修復型ニューラルネットワークを設計できるだろうか?
典型的な自己修復機構は、人体の免疫系である。
この生物学に触発されたアイデアは多くの工学設計で使われてきたが、ディープラーニングではほとんど研究されていない。
本稿では,ニューラルネットワークのトレーニング後の自己修復について検討し,様々な攻撃や摂動に起因するエラーを自動的に検出し修正するための閉ループ制御方式を提案する。
本稿では,この定式化が分類器のロバスト性を改善する方法を説明するために,マージンに基づく解析を行う。
提案する自己修復ネットワークの推論を高速化するため,ポントリャーギン最大原理に基づく解法の改善により制御問題を解く。
最後に,非線形アクティベーション関数を持つニューラルネットワークのためのフレームワークの誤差推定を提案する。
我々は,複数のネットワークアーキテクチャの性能を様々な摂動に対して検証する。
自己修復法は、データ摂動/攻撃に関するプリオリ情報を必要としないため、予期せぬ摂動の幅広いクラスを扱うことができる。
関連論文リスト
- Message Passing Variational Autoregressive Network for Solving Intractable Ising Models [6.261096199903392]
自己回帰型ニューラルネットワーク、畳み込み型ニューラルネットワーク、リカレントニューラルネットワーク、グラフニューラルネットワークなど、多くのディープニューラルネットワークがIsingモデルの解決に使用されている。
本稿では、スピン変数間の相互作用を効果的に活用できるメッセージパッシング機構を備えた変分自己回帰アーキテクチャを提案する。
新しいネットワークは、アニーリングフレームワークの下で訓練され、いくつかの原型スピンハミルトニアンの解法、特に低温での大きなスピン系において、既存の方法よりも優れている。
論文 参考訳(メタデータ) (2024-04-09T11:27:07Z) - Rational Neural Network Controllers [0.0]
最近の研究は、制御システム(ニューラルフィードバックループとして知られる)におけるニューラルネットワークの有効性を実証している。
このアプローチの大きな課題のひとつは、ニューラルネットワークが敵の攻撃に敏感であることが示されていることだ。
本稿では、有理性ニューラルネットワークを考察し、ニューラルフィードバックループのロバストネス問題に有効に使用できる新しい有理性活性化関数を提案する。
論文 参考訳(メタデータ) (2023-07-12T16:35:41Z) - Semantic-Based Neural Network Repair [4.092001692194709]
本稿では,ニューラルネットワークの自動修復手法を提案する。
私たちのアプローチは、ディープラーニングレイヤの実行可能なセマンティクスに基づいています。
私たちは、自動生成されたニューラルネットワークと、一般的なモデルバグに苦しむ手書きのものを修復する、という2つのユースケースに対するアプローチを評価します。
論文 参考訳(メタデータ) (2023-06-12T16:18:32Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - On the Adversarial Robustness of Quantized Neural Networks [2.0625936401496237]
モデル圧縮技術が敵対攻撃に対するAIアルゴリズムの堅牢性にどのように影響するかは不明である。
本稿では,最も一般的な圧縮手法である量子化がニューラルネットワークの対角的堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2021-05-01T11:46:35Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Towards Robust Neural Networks via Close-loop Control [12.71446168207573]
深層ニューラルネットワークは、ブラックボックスの性質のため、様々な摂動に弱い。
近年の研究では、入力データが知覚不可能な量で摂動しても、ディープニューラルネットワークがデータを誤分類できることが示されている。
論文 参考訳(メタデータ) (2021-02-03T03:50:35Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。