論文の概要: Hypernetwork Dismantling via Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2104.14332v1
- Date: Thu, 29 Apr 2021 13:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 12:41:50.518070
- Title: Hypernetwork Dismantling via Deep Reinforcement Learning
- Title(参考訳): 深層強化学習によるハイパーネットワーク解体
- Authors: Dengcheng Yan, Wenxin Xie, Yiwen Zhang
- Abstract要約: ハイパーネットワーク解体問題をノードシーケンス決定問題として定式化する。
深層強化学習型ハイパーネットワーク分解フレームワークを提案する。
5つの実世界のハイパーネットワークの実験結果は,提案フレームワークの有効性を示している。
- 参考スコア(独自算出の注目度): 1.4877837830677472
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Network dismantling aims to degrade the connectivity of a network by removing
an optimal set of nodes and has been widely adopted in many real-world
applications such as epidemic control and rumor containment. However,
conventional methods usually focus on simple network modeling with only
pairwise interactions, while group-wise interactions modeled by hypernetwork
are ubiquitous and critical. In this work, we formulate the hypernetwork
dismantling problem as a node sequence decision problem and propose a deep
reinforcement learning (DRL)-based hypernetwork dismantling framework. Besides,
we design a novel inductive hypernetwork embedding method to ensure the
transferability to various real-world hypernetworks. Generally, our framework
builds an agent. It first generates small-scale synthetic hypernetworks and
embeds the nodes and hypernetworks into a low dimensional vector space to
represent the action and state space in DRL, respectively. Then trial-and-error
dismantling tasks are conducted by the agent on these synthetic hypernetworks,
and the dismantling strategy is continuously optimized. Finally, the
well-optimized strategy is applied to real-world hypernetwork dismantling
tasks. Experimental results on five real-world hypernetworks demonstrate the
effectiveness of our proposed framework.
- Abstract(参考訳): ネットワーク分割は、最適なノードの集合を取り除き、ネットワークの接続性を劣化させることを目的としており、疫病対策や噂の封じ込めなど多くの現実世界のアプリケーションで広く採用されている。
しかし、従来の手法はペアワイズのみの単純なネットワークモデリングに重点を置いているのに対し、ハイパーネットワークによってモデル化されたグループワイズ相互作用はユビキタスで重要なものである。
本研究では,ハイパーネットワーク解体問題をノードシーケンス決定問題として定式化し,深層強化学習(drl)ベースのハイパーネットワーク解体フレームワークを提案する。
さらに,様々な現実世界のハイパーネットワークへの転送性を確保するために,新しいインダクティブなハイパーネットワーク埋め込み手法を設計する。
一般的に、私たちのフレームワークはエージェントを構築します。
最初は小規模な合成ハイパーネットワークを生成し、ノードとハイパーネットワークを低次元ベクトル空間に埋め込み、DRLのアクションと状態空間を表現する。
次に、これらの合成ハイパーネットワーク上でエージェントによって試行錯誤処理を行い、分解戦略を継続的に最適化する。
最後に、最適化された戦略を現実世界のハイパーネットワークの分解タスクに適用する。
5つの実世界のハイパーネットワークの実験結果は,提案フレームワークの有効性を示している。
関連論文リスト
- Coupling Light with Matter for Identifying Dominant Subnetworks [0.0]
我々は、複雑なニューラルネットワークを使用して、支配的な作業を特定し、より大きなネットワーク内の間接的相関を明らかにする、新しいライトマタープラットフォームを提案する。
このアプローチは、低消費電力、高速な処理速度、および後処理を行わない共値ノードと逆制御ノードの即時同定など、大きな利点を提供する。
論文 参考訳(メタデータ) (2024-05-27T16:00:21Z) - Hierarchical Multi-Marginal Optimal Transport for Network Alignment [52.206006379563306]
マルチネットワークアライメントは,複数ネットワーク上での協調学習に必須の要件である。
マルチネットワークアライメントのための階層型マルチマージ最適トランスポートフレームワークHOTを提案する。
提案するHOTは,有効性とスケーラビリティの両面で,最先端の大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-10-06T02:35:35Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Magnitude Invariant Parametrizations Improve Hypernetwork Learning [0.0]
Hypernetworksは、別のニューラルネットワークのパラメータを予測する強力なニューラルネットワークである。
トレーニングは通常、非ハイパーネットワークモデルよりもはるかにゆっくりと収束する。
我々は、ハイパーネットワークのトレーニングの課題に寄与する、基本的な未確認の問題を識別する。
我々は、MIP(Magnitude Invariant Parametrizations)と呼ばれる改訂されたハイパーネットワークの定式化を用いて、この問題に対する簡単な解決策を提案する。
論文 参考訳(メタデータ) (2023-04-15T22:18:29Z) - Continual Learning with Dependency Preserving Hypernetworks [14.102057320661427]
継続学習(CL)問題に対処するための効果的なアプローチは、ターゲットネットワークのタスク依存重みを生成するハイパーネットワークを使用することである。
本稿では,パラメータの効率を保ちながら,依存関係保存型ハイパーネットワークを用いて対象ネットワークの重み付けを生成する手法を提案する。
さらに,RNNベースのハイパーネットワークのための新しい正規化手法とネットワーク成長手法を提案し,継続学習性能をさらに向上させる。
論文 参考訳(メタデータ) (2022-09-16T04:42:21Z) - Interference Cancellation GAN Framework for Dynamic Channels [74.22393885274728]
チャネルのあらゆる変更に適応できるオンライントレーニングフレームワークを導入します。
我々のフレームワークは、非常にダイナミックなチャネル上での最近のニューラルネットワークモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-08-17T02:01:18Z) - Cascaded Compressed Sensing Networks: A Reversible Architecture for
Layerwise Learning [11.721183551822097]
提案手法は, 補助ネットワークを必要とせずに, 圧縮センシングにより各層にネットワークをモデル化することにより, 対象の伝搬を実現することができることを示す。
実験により,提案手法は補助的なネットワークベース手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2021-10-20T05:21:13Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - On Infinite-Width Hypernetworks [101.03630454105621]
我々は、ハイパーネットワークが、下降中のグローバルなミニマを保証していないことを示す。
我々は,これらのアーキテクチャの機能的先行を,対応するGPカーネルとNTKカーネルを導出することによって同定する。
この研究の一環として、標準完全連結ReLUネットワークの高次テイラー項の厳密な境界を導出した数学的貢献を行う。
論文 参考訳(メタデータ) (2020-03-27T00:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。