論文の概要: Stable Neural ODE with Lyapunov-Stable Equilibrium Points for Defending
Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2110.12976v1
- Date: Mon, 25 Oct 2021 14:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 20:30:49.556899
- Title: Stable Neural ODE with Lyapunov-Stable Equilibrium Points for Defending
Against Adversarial Attacks
- Title(参考訳): Lyapunov-Stable Equilibrium Points を用いた対向攻撃に備えた安定ニューラルネットワーク
- Authors: Qiyu Kang, Yang Song, Qinxu Ding and Wee Peng Tay
- Abstract要約: 我々は,Lyapunov-stable平衡点を持つ安定なニューラル・オードを提案し,敵対的攻撃(SODEF)を防御する。
我々は、SODEFの安定性に関する洞察を与える理論的な結果と、その安定性を確保するための正則化器の選択を提供する。
- 参考スコア(独自算出の注目度): 32.88499015927756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) are well-known to be vulnerable to adversarial
attacks, where malicious human-imperceptible perturbations are included in the
input to the deep network to fool it into making a wrong classification. Recent
studies have demonstrated that neural Ordinary Differential Equations (ODEs)
are intrinsically more robust against adversarial attacks compared to vanilla
DNNs. In this work, we propose a stable neural ODE with Lyapunov-stable
equilibrium points for defending against adversarial attacks (SODEF). By
ensuring that the equilibrium points of the ODE solution used as part of SODEF
is Lyapunov-stable, the ODE solution for an input with a small perturbation
converges to the same solution as the unperturbed input. We provide theoretical
results that give insights into the stability of SODEF as well as the choice of
regularizers to ensure its stability. Our analysis suggests that our proposed
regularizers force the extracted feature points to be within a neighborhood of
the Lyapunov-stable equilibrium points of the ODE. SODEF is compatible with
many defense methods and can be applied to any neural network's final regressor
layer to enhance its stability against adversarial attacks.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、悪意のある人間の知覚可能な摂動がディープネットワークへの入力に含まれる敵の攻撃に対して脆弱であることがよく知られている。
近年の研究では、神経性常微分方程式(ODE)は、バニラDNNと比較して本質的には敵の攻撃に対して堅牢であることが示された。
本研究では,Lyapunov-stable平衡点を持つ安定なニューラルODEを提案し,敵攻撃(SODEF)を防御する。
SODEFの一部として使われるODE溶液の平衡点がリャプノフ安定であることを保証することにより、小さな摂動を持つ入力に対するODE溶液は、未摂動入力と同じ解に収束する。
我々は、SODEFの安定性に関する洞察を与える理論的な結果と、その安定性を確保するための正則化器の選択を提供する。
解析の結果,提案した正則化器は抽出した特徴点をODEのリャプノフ安定平衡点の近傍に配置することを示唆した。
SODEFは多くの防御手法と互換性があり、あらゆるニューラルネットワークの最終回帰層に適用することで、敵攻撃に対する安定性を高めることができる。
関連論文リスト
- Robust Stable Spiking Neural Networks [45.84535743722043]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアの低エネルギー予算のため、ディープラーニングで人気を集めている。
SNNを敵の攻撃の脅威から守るために多くの研究がなされている。
本稿では非線形システムの安定性のレンズによるSNNの堅牢性を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-05-31T08:40:02Z) - Adversarial Robustness in Graph Neural Networks: A Hamiltonian Approach [27.99849885813841]
グラフニューラルネットワーク(GNN)は敵の摂動に弱い。
本稿では,多様なニューラルフローから派生したGNNについて検討する。
我々は、リアプノフの安定性は、その一般的な使用にもかかわらず、必ずしも敵の堅牢性を保証するとは限らないと論じる。
論文 参考訳(メタデータ) (2023-10-10T07:59:23Z) - Ortho-ODE: Enhancing Robustness and of Neural ODEs against Adversarial
Attacks [0.0]
ODE力学のリプシッツ定数を制御することにより、ロバスト性を大幅に改善できることを示す。
多数のデータセット上で強化された堅牢性を裏付ける。
論文 参考訳(メタデータ) (2023-05-16T05:37:06Z) - Lyapunov-Stable Deep Equilibrium Models [47.62037001903746]
Lyapunov理論による証明可能な安定性を保証する頑健なDECモデルを提案する。
我々はLyaDEQモデルをよく知られた敵攻撃下で評価する。
LyaDEQモデルは、敵の訓練など他の防御手法と組み合わせることで、より優れたロバスト性を実現することができることを示す。
論文 参考訳(メタデータ) (2023-04-25T10:36:15Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - LyaNet: A Lyapunov Framework for Training Neural ODEs [59.73633363494646]
制御理論的リアプノフ条件を用いて常微分方程式を訓練する手法を提案する。
我々のアプローチはLyaNetと呼ばれ、推論ダイナミクスを正しい予測に迅速に収束させる新しいLyapunov損失定式化に基づいている。
論文 参考訳(メタデータ) (2022-02-05T10:13:14Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Adversarial Robustness of Stabilized NeuralODEs Might be from Obfuscated
Gradients [30.560531008995806]
我々は、ホワイトボックス攻撃下での非自明な対角的ロバスト性を実現するニューラルネットワーク正規微分方程式(ODE)の実証可能な安定なアーキテクチャを提案する。
動的システム理論に触発されて, ODEブロックが歪対称であり, 入力出力安定であることが証明されたSONetというニューラルネットワークを設計した。
自然訓練により、SONetは、自然な精度を犠牲にすることなく、最先端の対人防御手法と同等の堅牢性を達成することができる。
論文 参考訳(メタデータ) (2020-09-28T08:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。