論文の概要: Finding Influencers in Complex Networks: An Effective Deep Reinforcement
Learning Approach
- arxiv url: http://arxiv.org/abs/2309.07153v1
- Date: Sat, 9 Sep 2023 14:19:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-17 13:40:35.066015
- Title: Finding Influencers in Complex Networks: An Effective Deep Reinforcement
Learning Approach
- Title(参考訳): 複雑ネットワークにおけるインフルエンサーの発見--効果的な深層強化学習アプローチ
- Authors: Changan Liu, Changjun Fan, and Zhongzhi Zhang
- Abstract要約: 本稿では,従来のベストインフルエンスアルゴリズムよりも優れた性能を実現する効果的な強化学習モデルを提案する。
具体的には、グラフニューラルネットワークアルゴリズムをエンコーダとして、強化学習をデコーダとして組み合わせたエンドツーエンド学習フレームワークDREIMを設計する。
- 参考スコア(独自算出の注目度): 13.439099770154952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Maximizing influences in complex networks is a practically important but
computationally challenging task for social network analysis, due to its NP-
hard nature. Most current approximation or heuristic methods either require
tremendous human design efforts or achieve unsatisfying balances between
effectiveness and efficiency. Recent machine learning attempts only focus on
speed but lack performance enhancement. In this paper, different from previous
attempts, we propose an effective deep reinforcement learning model that
achieves superior performances over traditional best influence maximization
algorithms. Specifically, we design an end-to-end learning framework that
combines graph neural network as the encoder and reinforcement learning as the
decoder, named DREIM. Trough extensive training on small synthetic graphs,
DREIM outperforms the state-of-the-art baseline methods on very large synthetic
and real-world networks on solution quality, and we also empirically show its
linear scalability with regard to the network size, which demonstrates its
superiority in solving this problem.
- Abstract(参考訳): 複雑なネットワークにおける影響の最大化は、NPhardの性質のため、事実上重要だが計算的に難しい課題である。
現在の近似やヒューリスティックな手法は、膨大な人的設計の努力を必要とするか、有効性と効率のバランスが取れない。
最近の機械学習の試みは、スピードのみに焦点を絞っているが、性能向上に欠けている。
本稿では,従来の最良影響最大化アルゴリズムよりも優れた性能を実現する効果的な深層強化学習モデルを提案する。
具体的には,グラフニューラルネットワークをエンコーダとして,強化学習をデコーダとして組み合わせたエンドツーエンド学習フレームワークdreimを設計した。
小さな合成グラフの広範なトレーニング、dreimは、非常に大きな合成および実世界のネットワークにおける最先端のベースラインメソッドをソリューションの品質で上回り、ネットワークサイズに関してその線形スケーラビリティを実証的に示し、この問題を解く上での優位性を示しています。
関連論文リスト
- The Simpler The Better: An Entropy-Based Importance Metric To Reduce Neural Networks' Depth [5.869633234882029]
本稿では,大規模モデルによって伝達される事前知識を活用する効率戦略を提案する。
本稿では,過度にパラメータ化された深層ニューラルネットワークの深さを低減するために,エントロピー・バサード・インシデンス・mEtRic (EASIER) を利用する手法を提案する。
論文 参考訳(メタデータ) (2024-04-27T08:28:25Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - Deep Fusion: Efficient Network Training via Pre-trained Initializations [3.9146761527401424]
我々は、より小さなネットワークの初期化を事前訓練したネットワークトレーニングの効率的なアプローチであるDeep Fusionを提案する。
我々の実験は、Deep Fusionが訓練プロセスを加速するだけでなく、計算要求を減少させる実用的で効果的なアプローチであることを示す。
我々は,Deep Fusionの最適利用を導く理論的枠組みを検証し,トレーニング時間と資源消費の両方を著しく削減することを示した。
論文 参考訳(メタデータ) (2023-06-20T21:30:54Z) - Graph Reinforcement Learning for Network Control via Bi-Level
Optimization [37.00510744883984]
我々は、データ駆動戦略がこのプロセスを自動化し、最適性を損なうことなく効率的なアルゴリズムを学習できると主張している。
我々は、強化学習のレンズを通してネットワーク制御の問題を提示し、幅広い問題に対処するグラフネットワークベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-16T03:20:22Z) - ToupleGDD: A Fine-Designed Solution of Influence Maximization by Deep
Reinforcement Learning [4.266866385061998]
本稿では、影響最大化(IM)問題に対処するため、新しいエンドツーエンドDRLフレームワークToupleGDDを提案する。
我々のモデルは、小さな予算でランダムに生成されたいくつかの小さなグラフで訓練され、様々な大きな予算の下で全く異なるネットワークでテストされる。
論文 参考訳(メタデータ) (2022-10-14T03:56:53Z) - DDCNet: Deep Dilated Convolutional Neural Network for Dense Prediction [0.0]
受容場(ERF)とネットワーク内の空間的特徴の高分解能は、高分解能密度推定を提供することに不可欠である。
空間的特徴の解像度を高く保ちながら、より大きな受容場を提供できるネットワークアーキテクチャを設計するための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-09T23:15:34Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。