論文の概要: ToupleGDD: A Fine-Designed Solution of Influence Maximization by Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.07500v3
- Date: Fri, 28 Apr 2023 19:58:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 19:31:39.884920
- Title: ToupleGDD: A Fine-Designed Solution of Influence Maximization by Deep
Reinforcement Learning
- Title(参考訳): ToupleGDD: 深層強化学習による影響最大化の詳細な解法
- Authors: Tiantian Chen, Siwen Yan, Jianxiong Guo, Weili Wu
- Abstract要約: 本稿では、影響最大化(IM)問題に対処するため、新しいエンドツーエンドDRLフレームワークToupleGDDを提案する。
我々のモデルは、小さな予算でランダムに生成されたいくつかの小さなグラフで訓練され、様々な大きな予算の下で全く異なるネットワークでテストされる。
- 参考スコア(独自算出の注目度): 4.266866385061998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aiming at selecting a small subset of nodes with maximum influence on
networks, the Influence Maximization (IM) problem has been extensively studied.
Since it is #P-hard to compute the influence spread given a seed set, the
state-of-the-art methods, including heuristic and approximation algorithms,
faced with great difficulties such as theoretical guarantee, time efficiency,
generalization, etc. This makes it unable to adapt to large-scale networks and
more complex applications. On the other side, with the latest achievements of
Deep Reinforcement Learning (DRL) in artificial intelligence and other fields,
lots of works have been focused on exploiting DRL to solve combinatorial
optimization problems. Inspired by this, we propose a novel end-to-end DRL
framework, ToupleGDD, to address the IM problem in this paper, which
incorporates three coupled graph neural networks for network embedding and
double deep Q-networks for parameters learning. Previous efforts to solve IM
problem with DRL trained their models on subgraphs of the whole network, and
then tested on the whole graph, which makes the performance of their models
unstable among different networks. However, our model is trained on several
small randomly generated graphs with a small budget, and tested on completely
different networks under various large budgets, which can obtain results very
close to IMM and better results than OPIM-C on several datasets, and shows
strong generalization ability. Finally, we conduct a large number of
experiments on synthetic and realistic datasets, and experimental results prove
the effectiveness and superiority of our model.
- Abstract(参考訳): ネットワークに最大影響を与えるノードの小さなサブセットを選択することを目指して、影響最大化(im)の問題が広く研究されている。
シードセットが与えられた影響を計算するのは#Pハードであるため、ヒューリスティックおよび近似アルゴリズムを含む最先端の手法は、理論的保証、時間効率、一般化などの大きな困難に直面している。
これにより、大規模ネットワークやより複雑なアプリケーションに適応できない。
一方、人工知能やその他の分野におけるDeep Reinforcement Learning(DRL)の最近の成果により、組合せ最適化問題を解決するためにDRLを活用することに多くの研究が注がれている。
本稿では,ネットワーク埋め込みのための3つの結合グラフニューラルネットワークとパラメータ学習のための二重深度Q-networksを組み合わせた,新しいエンドツーエンドDRLフレームワークであるToupleGDDを提案する。
従来のDRLによるIM問題を解決する努力は、ネットワーク全体のサブグラフ上でモデルをトレーニングし、その後グラフ全体のテストを行い、異なるネットワーク間でモデルのパフォーマンスが不安定になるようにした。
しかし,本モデルは小額のランダム生成グラフ上で訓練され,様々な大予算で全く異なるネットワーク上でテストされ,複数のデータセットのopim-cよりも非常に近い結果と優れた結果が得られるとともに,強力な一般化能力を示す。
最後に,人工的かつ現実的なデータセットに関する実験を多数実施し,実験結果からモデルの有効性と優越性が証明された。
関連論文リスト
- Influence Maximization via Graph Neural Bandits [54.45552721334886]
IM問題を多ラウンド拡散キャンペーンに設定し,影響を受けやすいユーザ数を最大化することを目的とした。
IM-GNB(Influence Maximization with Graph Neural Bandits)を提案する。
論文 参考訳(メタデータ) (2024-06-18T17:54:33Z) - Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - Optimizing cnn-Bigru performance: Mish activation and comparative analysis with Relu [0.0]
アクティベーション関数(AF)はニューラルネットワークの基本コンポーネントであり、データ内の複雑なパターンや関係をキャプチャすることができる。
本研究は, 侵入検知システムの性能向上におけるAFの有効性を照らすものである。
論文 参考訳(メタデータ) (2024-05-30T21:48:56Z) - Finding Influencers in Complex Networks: An Effective Deep Reinforcement
Learning Approach [13.439099770154952]
本稿では,従来のベストインフルエンスアルゴリズムよりも優れた性能を実現する効果的な強化学習モデルを提案する。
具体的には、グラフニューラルネットワークアルゴリズムをエンコーダとして、強化学習をデコーダとして組み合わせたエンドツーエンド学習フレームワークDREIMを設計する。
論文 参考訳(メタデータ) (2023-09-09T14:19:00Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Deep Graph Representation Learning and Optimization for Influence
Maximization [10.90744025490539]
インフルエンサー(IM)は、ソーシャルネットワークから初期ユーザのセットを選択して、影響を受けたユーザの期待人数を最大化する。
本稿では,シードセットの潜在表現を生成的に特徴付けるための新しいフレームワークであるDeepIMを提案する。
また、フレキシブルなノード分散性に基づく予算制約の下で最適なシードセットを推論する新たな目的関数を設計する。
論文 参考訳(メタデータ) (2023-05-01T15:45:01Z) - Multiobjective Evolutionary Pruning of Deep Neural Networks with
Transfer Learning for improving their Performance and Robustness [15.29595828816055]
本研究は,多目的進化解析アルゴリズムMO-EvoPruneDeepTLを提案する。
我々は、トランスファーラーニングを使用して、遺伝的アルゴリズムによって進化したスパース層に置き換えることで、ディープニューラルネットワークの最後の層を適応します。
実験の結果,提案手法は全ての目的に対して有望な結果が得られ,直接的な関係が示された。
論文 参考訳(メタデータ) (2023-02-20T19:33:38Z) - Personalized Decentralized Multi-Task Learning Over Dynamic
Communication Graphs [59.96266198512243]
本稿では,正と負の相関関係を持つタスクに対する分散・フェデレーション学習アルゴリズムを提案する。
本アルゴリズムでは,タスク間の相関関係を自動的に計算し,コミュニケーショングラフを動的に調整して相互に有益なタスクを接続し,互いに悪影響を及ぼす可能性のあるタスクを分離する。
合成ガウスデータセットと大規模セレブ属性(CelebA)データセットについて実験を行った。
論文 参考訳(メタデータ) (2022-12-21T18:58:24Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。