論文の概要: Network Robustness Learning via Graph Transformer
- arxiv url: http://arxiv.org/abs/2306.06913v1
- Date: Mon, 12 Jun 2023 07:34:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:37:50.948632
- Title: Network Robustness Learning via Graph Transformer
- Title(参考訳): グラフトランスフォーマによるネットワークロバストネス学習
- Authors: Yu Zhang, Jia Li, Jie Ding, Xiang Li
- Abstract要約: 本稿では, グラフ変換器(NRL-GT)を用いた多目的で統一的なロバストネス学習手法を提案する。
NRL-GTは、複数の側面から制御可能性堅牢性学習と接続性堅牢性学習のタスクを達成する。
また、学習エラーが低く、高い効率で、異なるサイズの複雑なネットワークを扱うこともできる。
- 参考スコア(独自算出の注目度): 29.58184976613983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning and analysis of network robustness, including controllability
robustness and connectivity robustness, is critical for various networked
systems against attacks. Traditionally, network robustness is determined by
attack simulations, which is very time-consuming and even incapable for
large-scale networks. Network Robustness Learning, which is dedicated to
learning network robustness with high precision and high speed, provides a
powerful tool to analyze network robustness by replacing simulations. In this
paper, a novel versatile and unified robustness learning approach via graph
transformer (NRL-GT) is proposed, which accomplishes the task of
controllability robustness learning and connectivity robustness learning from
multiple aspects including robustness curve learning, overall robustness
learning, and synthetic network classification. Numerous experiments show that:
1) NRL-GT is a unified learning framework for controllability robustness and
connectivity robustness, demonstrating a strong generalization ability to
ensure high precision when training and test sets are distributed differently;
2) Compared to the cutting-edge methods, NRL-GT can simultaneously perform
network robustness learning from multiple aspects and obtains superior results
in less time. NRL-GT is also able to deal with complex networks of different
size with low learning error and high efficiency; 3) It is worth mentioning
that the backbone of NRL-GT can serve as a transferable feature learning module
for complex networks of different size and different downstream tasks.
- Abstract(参考訳): ネットワークロバスト性(制御性ロバスト性や接続性ロバスト性を含む)の学習と解析は、攻撃に対する様々なネットワークシステムにとって重要である。
伝統的に、ネットワークの堅牢性は攻撃シミュレーションによって決定される。
ネットワークロバストネス学習は、ネットワークロバストネスを高精度かつ高速に学習することを目的としており、シミュレーションを置き換えることでネットワークロバストネスを分析する強力なツールを提供する。
本稿では, グラフ変換器(NRL-GT)による多目的かつ統一的なロバストネス学習手法を提案し, 頑健性曲線学習, 総合ロバストネス学習, 合成ネットワーク分類を含む複数の側面から, 可制御性ロバストネス学習と持続性ロバストネス学習を実現する。
多くの実験が示しています
1)NRL-GTは、制御性堅牢性と接続性堅牢性のための統一的な学習フレームワークであり、トレーニングとテストセットが異なる場合に高い精度を確保するための強力な一般化能力を示す。
2) 最先端手法と比較して,NRL-GTは複数面からのネットワーク堅牢性学習を同時に行うことができ,より少ない時間で優れた結果が得られる。
NRL-GTは、学習誤差が低く、高い効率で異なる大きさの複雑なネットワークを扱うことができる。
3)NRL-GTのバックボーンは、異なるサイズと異なる下流タスクの複雑なネットワークのための転送可能な機能学習モジュールとして機能する。
関連論文リスト
- Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Continual Learning, Fast and Slow [75.53144246169346]
補完学習システム理論(Complementary Learning Systems theory)によれば、人間は2つの相補的なシステムを通して効果的な共連続学習を行う。
EmphDualNets(Dual Networks)は、タスクの教師付き学習のための高速学習システムと、自己監視学習(SSL)によるタスク非依存の汎用表現の表現学習のための遅い学習システムからなる、一般的な連続学習フレームワークである。
我々はDualNetsの有望な成果を、標準的なオフラインタスク認識設定から、オンラインタスクフリーシナリオまで、幅広い連続的な学習プロトコルで実証する。
論文 参考訳(メタデータ) (2022-09-06T10:48:45Z) - A Learning Convolutional Neural Network Approach for Network Robustness
Prediction [13.742495880357493]
ネットワークの堅牢性は、様々な社会的・産業的ネットワークにとって再び悪意ある攻撃にとって重要である。
本稿では,畳み込みニューラルネットワーク(LFR-CNN)を用いた学習特徴表現に基づくネットワークロバスト性予測の改良手法を提案する。
このスキームでは、高次元のネットワークデータを低次元の表現に圧縮し、CNNに渡してロバストネス予測を行う。
論文 参考訳(メタデータ) (2022-03-20T13:45:55Z) - Learning Fast and Slow for Online Time Series Forecasting [76.50127663309604]
Fast and Slow Learning Networks (FSNet)は、オンライン時系列予測のための総合的なフレームワークである。
FSNetは、最近の変更への迅速な適応と、同様の古い知識の取得のバランスを取る。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2022-02-23T18:23:07Z) - Revisiting the double-well problem by deep learning with a hybrid
network [7.308730248177914]
本稿では,lstmとresnetの2種類のニューラルネットワークを統合するハイブリッドネットワークを提案する。
このようなハイブリッドネットワークは、空間的または時間的変調が速いシステムにおける協調ダイナミクスの解決に応用できる。
論文 参考訳(メタデータ) (2021-04-25T07:51:43Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Network Comparison with Interpretable Contrastive Network Representation
Learning [44.145644586950574]
コントラストネットワーク表現学習(cNRL)と呼ばれる新しい分析手法を導入する。
cNRLは、ネットワークノードを低次元の表現に埋め込み、あるネットワークが他に比べてユニークであることを明らかにする。
複数のネットワークモデルと実世界のデータセットとのネットワーク比較におけるi-cNRLの有効性を示す。
論文 参考訳(メタデータ) (2020-05-25T21:46:59Z) - R-FORCE: Robust Learning for Random Recurrent Neural Networks [6.285241353736006]
RRNNのロバスト性を高めるためのロバストトレーニング手法を提案する。
FORCE学習アプローチは、目標学習の課題にも適用可能であることが示された。
実験の結果,R-FORCEはより広範囲のRRNNに対して,より安定かつ正確な目標学習を促進することが示唆された。
論文 参考訳(メタデータ) (2020-03-25T22:08:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。