論文の概要: A Quick Framework for Evaluating Worst Robustness of Complex Networks
- arxiv url: http://arxiv.org/abs/2403.00027v1
- Date: Wed, 28 Feb 2024 16:32:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 23:04:42.249900
- Title: A Quick Framework for Evaluating Worst Robustness of Complex Networks
- Title(参考訳): 複雑ネットワークの最悪のロバスト性評価のためのクイックフレームワーク
- Authors: Wenjun Jiang, Peiyan Li, Tianlong Fan, Ting Li, Chuan-fu Zhang, Tao
Zhang, Zong-fu Luo
- Abstract要約: 本稿では,知識の積み重ねに基づくMDA(Most Destruction Attack)の概念を紹介する。
ネットワークの最悪のロバスト性を評価するためにMDAが使用され、続いて適応されたCNNアルゴリズムが高速な最悪のロバスト性予測に使用される。
各種ネットワークトポロジにおける最悪のロバスト性を予測するため,適応型CNNアルゴリズムの異常な性能を強調した。
- 参考スコア(独自算出の注目度): 6.6601150909346165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robustness is pivotal for comprehending, designing, optimizing, and
rehabilitating networks, with simulation attacks being the prevailing
evaluation method. Simulation attacks are often time-consuming or even
impractical, however, a more crucial yet persistently overlooked drawback is
that any attack strategy merely provides a potential paradigm of
disintegration. The key concern is: in the worst-case scenario or facing the
most severe attacks, what is the limit of robustness, referred to as ``Worst
Robustness'', for a given system? Understanding a system's worst robustness is
imperative for grasping its reliability limits, accurately evaluating
protective capabilities, and determining associated design and security
maintenance costs. To address these challenges, we introduce the concept of
Most Destruction Attack (MDA) based on the idea of knowledge stacking. MDA is
employed to assess the worst robustness of networks, followed by the
application of an adapted CNN algorithm for rapid worst robustness prediction.
We establish the logical validity of MDA and highlight the exceptional
performance of the adapted CNN algorithm in predicting the worst robustness
across diverse network topologies, encompassing both model and empirical
networks.
- Abstract(参考訳): ネットワークの理解、設計、最適化、リハビリテーションにおいてロバスト性が重要であり、シミュレーション攻撃が一般的な評価方法である。
シミュレーション攻撃は、しばしば時間を要するか、あるいは非現実的であるが、より重要で、過度に見過ごされる欠点は、攻撃戦略が単に崩壊の潜在的なパラダイムを提供するだけである。
最大の懸念は、 最悪のシナリオや最も厳しい攻撃に直面している場合、あるシステムに対して '`Worst Robustness'' と呼ばれるロバスト性の限界は何ですか?
システムの最悪の堅牢性を理解することは、信頼性の限界を把握し、保護能力を正確に評価し、関連する設計とセキュリティ維持コストを決定する上で不可欠である。
これらの課題に対処するために,知識の積み重ねに基づくMDA(Most Destruction Attack)の概念を導入する。
mdaはネットワークの最悪のロバスト性を評価するために用いられ、続いてcnnアルゴリズムを適用して最悪のロバスト性予測を行う。
我々は,mdaの論理的妥当性を確立し,モデルと経験的ネットワークを包含する多様なネットワークトポロジーにまたがる最悪のロバスト性を予測するcnnアルゴリズムの例外的性能を強調する。
関連論文リスト
- Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - The Effectiveness of Random Forgetting for Robust Generalization [21.163070161951868]
我々は,FOMO(Fordt to Mitigate Overfitting)と呼ばれる新しい学習パラダイムを導入する。
FOMOは、重みのサブセットをランダムに忘れる忘れ相と、一般化可能な特徴の学習を強調する再学習相とを交互に扱う。
実験の結果, FOMOは最良と最終ロバストなテスト精度のギャップを大幅に減らし, 頑健なオーバーフィッティングを緩和することがわかった。
論文 参考訳(メタデータ) (2024-02-18T23:14:40Z) - Robust Graph Neural Networks via Unbiased Aggregation [18.681451049083407]
グラフニューラルネットワーク(GNN)の敵対的堅牢性は、強い適応攻撃によって発見されたセキュリティの誤った感覚のために疑問視されている。
私たちは、その堅牢性と限界を理解するために、統一されたロバストな見積もりポイントを提供する。
論文 参考訳(メタデータ) (2023-11-25T05:34:36Z) - Comprehensive Analysis of Network Robustness Evaluation Based on Convolutional Neural Networks with Spatial Pyramid Pooling [4.366824280429597]
複雑なネットワークを理解し、最適化し、修復するための重要な側面である接続性の堅牢性は、伝統的にシミュレーションを通じて評価されてきた。
空間ピラミッドプールネットワーク(SPP-net)を用いた畳み込みニューラルネットワーク(CNN)モデルの設計により,これらの課題に対処する。
提案したCNNモデルは,全ての除去シナリオにおいて,攻撃曲線とロバストネスの両値の正確な評価を一貫して達成していることを示す。
論文 参考訳(メタデータ) (2023-08-10T09:54:22Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Revisiting DeepFool: generalization and improvement [17.714671419826715]
我々は,有効性と計算効率のバランスを崩す新たな敵攻撃群を導入する。
提案手法は,大規模モデルのロバスト性の評価にも適している。
論文 参考訳(メタデータ) (2023-03-22T11:49:35Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Understanding and Enhancing Robustness of Concept-based Models [41.20004311158688]
対向摂動に対する概念ベースモデルの堅牢性について検討する。
本稿では、まず、概念ベースモデルのセキュリティ脆弱性を評価するために、さまざまな悪意ある攻撃を提案し、分析する。
そこで我々は,これらのシステムのロバスト性を高めるための,汎用的対人訓練に基づく防御機構を提案する。
論文 参考訳(メタデータ) (2022-11-29T10:43:51Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。