論文の概要: Contingency-Aware Influence Maximization: A Reinforcement Learning
Approach
- arxiv url: http://arxiv.org/abs/2106.07039v1
- Date: Sun, 13 Jun 2021 16:42:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:21:04.099090
- Title: Contingency-Aware Influence Maximization: A Reinforcement Learning
Approach
- Title(参考訳): 随伴認識による影響最大化--強化学習アプローチ
- Authors: Haipeng Chen, Wei Qiu, Han-Ching Ou, Bo An, Milind Tambe
- Abstract要約: インフルエンス(IM)問題は、インフルエンスの普及を最大化する、ソーシャルネットワーク内のシードノードのサブセットを見つけることを目的としている。
本研究では、招待されたノードがシードであるかどうかが不確実なIM問題(contingency-aware IM)に焦点をあてる。
最初の成功にもかかわらず、より多くのコミュニティへのソリューションの推進における大きな実践上の障害は、欲張りのアルゴリズムの巨大な実行時である。
- 参考スコア(独自算出の注目度): 52.109536198330126
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The influence maximization (IM) problem aims at finding a subset of seed
nodes in a social network that maximize the spread of influence. In this study,
we focus on a sub-class of IM problems, where whether the nodes are willing to
be the seeds when being invited is uncertain, called contingency-aware IM. Such
contingency aware IM is critical for applications for non-profit organizations
in low resource communities (e.g., spreading awareness of disease prevention).
Despite the initial success, a major practical obstacle in promoting the
solutions to more communities is the tremendous runtime of the greedy
algorithms and the lack of high performance computing (HPC) for the non-profits
in the field -- whenever there is a new social network, the non-profits usually
do not have the HPCs to recalculate the solutions. Motivated by this and
inspired by the line of works that use reinforcement learning (RL) to address
combinatorial optimization on graphs, we formalize the problem as a Markov
Decision Process (MDP), and use RL to learn an IM policy over historically seen
networks, and generalize to unseen networks with negligible runtime at test
phase. To fully exploit the properties of our targeted problem, we propose two
technical innovations that improve the existing methods, including
state-abstraction and theoretically grounded reward shaping. Empirical results
show that our method achieves influence as high as the state-of-the-art methods
for contingency-aware IM, while having negligible runtime at test phase.
- Abstract(参考訳): 影響の最大化(IM)問題は、影響の広がりを最大化するソーシャルネットワーク内のシードノードのサブセットを見つけることを目的としている。
そこで本研究では,招待されたノードが種子になるかどうかを不確実視するim問題のサブクラスに着目し,その問題であるコンティンジェンシー・アウェア・imについて述べる。
このような緊急対応IMは、低資源コミュニティ(例えば、疾病予防の認識を広げるなど)の非営利団体に応用するために重要である。
初期の成功にもかかわらず、より多くのコミュニティにソリューションを広める上での大きな実践上の障害は、欲望のあるアルゴリズムの膨大な実行時間と、この分野の非営利団体のためのハイパフォーマンスコンピューティング(hpc)の欠如である。
グラフ上での組合せ最適化に強化学習(RL)を用いることで、マルコフ決定プロセス(MDP)として問題を定式化し、RLを用いて歴史的に見られたネットワーク上のIMポリシーを学習し、テストフェーズで無視できないランタイムを持つネットワークに一般化する。
対象とする問題の諸性質を十分に活用するために,国益化と理論的根拠を持つ報酬形成を含む既存手法を改良する2つの技術革新を提案する。
実験結果から,本手法はテスト段階では無視可能な実行環境を保ちながら,最先端のIM手法に匹敵する影響を達成できることが示された。
関連論文リスト
- Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - Influence Maximization via Graph Neural Bandits [54.45552721334886]
IM問題を多ラウンド拡散キャンペーンに設定し,影響を受けやすいユーザ数を最大化することを目的とした。
IM-GNB(Influence Maximization with Graph Neural Bandits)を提案する。
論文 参考訳(メタデータ) (2024-06-18T17:54:33Z) - A Survey on Influence Maximization: From an ML-Based Combinatorial
Optimization [2.9882027965916413]
影響最大化(IM)は、モバイルネットワーク、ソーシャルコンピューティング、レコメンデーションシステムで広く用いられる古典的な最適化問題である。
主な課題は、IM問題のNP硬度と、影響力の広がりを推定する#P硬度である。
我々は,関連する背景知識,基本原則,共通手法,応用研究の要約に重点を置いている。
論文 参考訳(メタデータ) (2022-11-06T10:13:42Z) - Offline Reinforcement Learning with Instrumental Variables in Confounded
Markov Decision Processes [93.61202366677526]
未測定の共同設立者を対象にオフライン強化学習(RL)について検討した。
そこで本稿では, 最適クラスポリシーを見つけるための, 有限サンプルの準最適性を保証した多種多様なポリシー学習手法を提案する。
論文 参考訳(メタデータ) (2022-09-18T22:03:55Z) - A Community-Aware Framework for Social Influence Maximization [40.842329580198324]
我々は、影響の最大化(IM)の問題を考える:「もし、ソーシャルネットワーク内の一部の個人を説得して、新しい製品やイノベーションを採用することができれば、その目標は、どの個人がターゲットにすべきかという大きなカスケードを誘発することである」。
本研究では,地域社会に固有のコミュニティ構造を学習すること (i) それぞれのコミュニティに影響を及ぼす問題を解くことによって,候補ソリューションを生成すること (ii) 新規なプログレッシブ予算方式を用いて,候補ソリューションから個人の最終セットを選択すること (iii) を提案する。
論文 参考訳(メタデータ) (2022-07-18T20:43:17Z) - GraMeR: Graph Meta Reinforcement Learning for Multi-Objective Influence
Maximization [1.7311053765541482]
インフルエンス(IM)とは、ネットワーク内のシードノードと呼ばれるノードのサブセットを特定する問題である(グラフ)。
IMには、バイラルマーケティング、疫病対策、センサー配置、その他のネットワーク関連タスクなど、数多くの応用がある。
我々は、本質的および影響的アクティベーションの両方を扱うマルコフ決定プロセスとして、一般的なIM問題を開発する。
論文 参考訳(メタデータ) (2022-05-30T03:48:51Z) - Sequential Information Design: Markov Persuasion Process and Its
Efficient Reinforcement Learning [156.5667417159582]
本稿では,逐次情報設計の新たなモデル,すなわちマルコフ説得過程(MPP)を提案する。
MPPのプランニングは、ミオピックレシーバーに同時に説得されるシグナルポリシーを見つけ、送信者の最適な長期累積ユーティリティを誘導する、というユニークな課題に直面している。
我々は,楽観主義と悲観主義の両原理の新たな組み合わせを特徴とする,実証可能な効率のよい非回帰学習アルゴリズム,Optimism-Pessimism Principle for Persuasion Process (OP4) を設計する。
論文 参考訳(メタデータ) (2022-02-22T05:41:43Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - CLAIM: Curriculum Learning Policy for Influence Maximization in Unknown
Social Networks [14.695979686066062]
本稿では,RL法のサンプル効率を向上させるために,CLAIM-Curriculum LeArning Policy for Influence Maximizationを提案する。
実世界のデータセットで実験を行い、我々のアプローチが現在の最良のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2021-07-08T04:52:50Z) - Maximizing Social Welfare in a Competitive Diffusion Model [19.18481967353127]
UIC(IM)は、バイラルマーケティングや感染封じ込めなどの応用により、多くの注目を集めている。
少数のシードユーザを選択して採用することで,ネットワーク内の多数のユーザに普及させることを目指している。
既存の競合IMの研究にはいくつかの制限がある。
論文 参考訳(メタデータ) (2020-12-06T19:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。