論文の概要: Edge Rewiring Goes Neural: Boosting Network Resilience via Policy
Gradient
- arxiv url: http://arxiv.org/abs/2110.09035v1
- Date: Mon, 18 Oct 2021 06:14:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 15:03:53.339148
- Title: Edge Rewiring Goes Neural: Boosting Network Resilience via Policy
Gradient
- Title(参考訳): Edge RewiringがNeuralに:ポリシグラディエントによるネットワークレジリエンス向上
- Authors: Shanchao Yang, Kaili Ma, Baoxiang Wang, Hongyuan Zha
- Abstract要約: ResiNetは、さまざまな災害や攻撃に対する回復力のあるネットワークトポロジを発見するための強化学習フレームワークである。
ResiNetは複数のグラフに対してほぼ最適のレジリエンス向上を実現し,ユーティリティのバランスを保ちながら,既存のアプローチに比べて大きなマージンを持つことを示す。
- 参考スコア(独自算出の注目度): 62.660451283548724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Improving the resilience of a network protects the system from natural
disasters and malicious attacks. This is typically achieved by introducing new
edges, which however may reach beyond the maximum number of connections a node
could sustain. Many studies then resort to the degree-preserving operation of
rewiring, which swaps existing edges $AC, BD$ to new edges $AB, CD$. A
significant line of studies focuses on this technique for theoretical and
practical results while leaving three limitations: network utility loss, local
optimality, and transductivity. In this paper, we propose ResiNet, a
reinforcement learning (RL)-based framework to discover resilient network
topologies against various disasters and attacks. ResiNet is objective agnostic
which allows the utility to be balanced by incorporating it into the objective
function. The local optimality, typically seen in greedy algorithms, is
addressed by casting the cumulative resilience gain into a sequential decision
process of step-wise rewiring. The transductivity, which refers to the
necessity to run a computationally intensive optimization for each input graph,
is lifted by our variant of RL with auto-regressive permutation-invariant
variable action space. ResiNet is armed by our technical innovation, Filtration
enhanced GNN (FireGNN), which distinguishes graphs with minor differences. It
is thus possible for ResiNet to capture local structure changes and adapt its
decision among consecutive graphs, which is known to be infeasible for GNN.
Extensive experiments demonstrate that with a small number of rewiring
operations, ResiNet achieves a near-optimal resilience gain on multiple graphs
while balancing the utility, with a large margin compared to existing
approaches.
- Abstract(参考訳): ネットワークのレジリエンス向上は、自然災害や悪意のある攻撃からシステムを保護します。
これは一般的に新しいエッジを導入することで実現されるが、ノードが維持できる最大コネクション数を超える可能性がある。
多くの研究はリウィリングの次数保存操作に頼り、既存のエッジを$AC, BD$から新しいエッジを$AB, CD$に置き換える。
ネットワークユーティリティ損失、局所最適性、およびトランスダクティビティの3つの制限を残しながら、理論的および実践的な結果のためのこの技術に焦点を当てた研究の行程である。
本稿では,ResiNetを提案する。Regressed Learning(RL)ベースのフレームワークで,災害や攻撃に対する耐性ネットワークトポロジを発見する。
ResiNetは客観的非依存であり、目的関数に組み込むことでユーティリティのバランスをとることができる。
局所最適性は、通常、欲求アルゴリズムに見られるもので、累積レジリエンスゲインをステップワイズという逐次的な決定プロセスに投入することで解決される。
トランスダクティビティ(transductivity)は、各入力グラフに対して計算集約的な最適化を実行する必要があることを言及し、自動回帰置換不変な可変アクション空間を持つRLの変種によって持ち上げられる。
ResiNetは私たちの技術革新であるFiltration enhanced GNN(FireGNN)によって武装されています。
したがって、ResiNetは局所的な構造変化を捉え、その決定を連続グラフに適応させることが可能である。
広範な実験により、resinetは少数のリワイリング操作によって、既存のアプローチに比べて大きなマージンで、ユーティリティのバランスを保ちながら、複数のグラフでほぼ最適のレジリエンス向上を実現することが示されている。
関連論文リスト
- Verifying message-passing neural networks via topology-based bounds tightening [3.3267518043390205]
我々は、メッセージパッシングニューラルネットワーク(MPNN)のための堅牢な証明書を提供するための、計算学的に効果的なアプローチを開発する。
私たちの研究は混合整数最適化に基づいており、様々なサブプロブレムをエンコードしています。
ノード分類とグラフ分類の両方の問題を検証し、エッジの追加と削除の両方を行うトポロジ的攻撃について検討する。
論文 参考訳(メタデータ) (2024-02-21T17:05:27Z) - LinGCN: Structural Linearized Graph Convolutional Network for
Homomorphically Encrypted Inference [19.5669231249754]
本稿では,乗算深度を低減し,HEに基づくGCN推論の性能を最適化するLinGCNを提案する。
注目すべきは、LinGCNはCryptoGCNと比較して14.2倍のレイテンシ向上を実現し、推論精度は75%、乗算深度は顕著に減少することである。
論文 参考訳(メタデータ) (2023-09-25T17:56:54Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - GNN at the Edge: Cost-Efficient Graph Neural Network Processing over
Distributed Edge Servers [24.109721494781592]
グラフニューラルネットワーク(GNN)はまだ探索中であり、その広範な採用に対する大きな違いを示している。
本稿では,多層ヘテロジニアスエッジネットワーク上での分散GNN処理のコスト最適化について検討する。
提案手法は, 高速収束速度で95.8%以上のコスト削減を行い, デファクトベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-10-31T13:03:16Z) - Trainability Preserving Neural Structured Pruning [64.65659982877891]
本稿では,正規化型構造化プルーニング法であるTPP(Traiability Preserving pruning)を提案する。
TPPは線形ネットワーク上での地中動力学的等尺性回復法と競合する。
多くのトップパフォーマンスのフィルタプルーニング手法と比較して、優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-07-25T21:15:47Z) - Power Flow Balancing with Decentralized Graph Neural Networks [4.812718493682454]
汎用グリッド内の電力フローのバランスをとるために,グラフニューラルネットワーク(GNN)に基づくエンドツーエンドフレームワークを提案する。
提案するフレームワークは,ディープラーニングに基づく他の解法と比較して効率的であり,グリッドコンポーネントの物理量だけでなくトポロジにも頑健である。
論文 参考訳(メタデータ) (2021-11-03T12:14:56Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。