論文の概要: Online Competitive Influence Maximization
- arxiv url: http://arxiv.org/abs/2006.13411v4
- Date: Wed, 2 Mar 2022 06:37:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:51:09.073438
- Title: Online Competitive Influence Maximization
- Title(参考訳): オンライン競争の影響最大化
- Authors: Jinhang Zuo, Xutong Liu, Carlee Joe-Wong, John C.S. Lui, Wei Chen
- Abstract要約: 競合する2つのアイテムが同じネットワークで伝播し、エッジへの影響が不明な新しいオンライン競合影響最大化(OCIM)問題を導入する。
我々はOCIMにCMAB(Multi-armed bandit)フレームワークを採用するが、非競合的な設定とは異なり、重要な単調性(エッジの確率が増加すると影響が広がる)は伝播の競争性によってもはや維持されない。
- 参考スコア(独自算出の注目度): 46.08146352395603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online influence maximization has attracted much attention as a way to
maximize influence spread through a social network while learning the values of
unknown network parameters. Most previous works focus on single-item diffusion.
In this paper, we introduce a new Online Competitive Influence Maximization
(OCIM) problem, where two competing items (e.g., products, news stories)
propagate in the same network and influence probabilities on edges are unknown.
We adopt a combinatorial multi-armed bandit (CMAB) framework for OCIM, but
unlike the non-competitive setting, the important monotonicity property
(influence spread increases when influence probabilities on edges increase) no
longer holds due to the competitive nature of propagation, which brings a
significant new challenge to the problem. We provide a nontrivial proof showing
that the Triggering Probability Modulated (TPM) condition for CMAB still holds
in OCIM, which is instrumental for our proposed algorithms OCIM-TS and OCIM-OFU
to achieve sublinear Bayesian and frequentist regret, respectively. We also
design an OCIM-ETC algorithm that requires less feedback and easier offline
computation, at the expense of a worse frequentist regret bound. Experimental
evaluations demonstrate the effectiveness of our algorithms.
- Abstract(参考訳): オンライン影響力の最大化は、未知のネットワークパラメータの値を学びながら、ソーシャルネットワークを通じて影響力を最大化する方法として多くの注目を集めている。
以前の作品の多くは単項目拡散に焦点を合わせている。
本稿では,競合する2つのアイテム(製品,ニュース記事など)が同一ネットワーク内で伝播し,エッジへの影響が不明な,新たなオンライン競合影響最大化(OCIM)問題を提案する。
我々は、OCIMにCMAB(combinatorial multi-armed bandit)フレームワークを採用するが、非競合的な設定とは異なり、重要な単調性(エッジの確率が増加すると影響が広がる)は、伝播の競争性によりもはや維持されないため、この問題に重大な新しい挑戦をもたらす。
本稿では,CMAB の Triggering Probability Modulated (TPM) 条件が OCIM に保持されていることを示す非自明な証明について述べる。
また、より少ないフィードバックとより簡単なオフライン計算を必要とするOCIM-ETCアルゴリズムを設計する。
実験評価の結果,アルゴリズムの有効性が示された。
関連論文リスト
- Influence Maximization via Graph Neural Bandits [54.45552721334886]
IM問題を多ラウンド拡散キャンペーンに設定し,影響を受けやすいユーザ数を最大化することを目的とした。
IM-GNB(Influence Maximization with Graph Neural Bandits)を提案する。
論文 参考訳(メタデータ) (2024-06-18T17:54:33Z) - Weighted Sum-Rate Maximization With Causal Inference for Latent
Interference Estimation [9.569049935824227]
本論文は、遅延干渉下でWSRMに対処するための因果的枠組みの下で、有名な代替最適化最小二乗誤差(WMMSE)を拡張した。
数値計算の結果, SC-WMMSEは, コンバージェンスと目的の両方において, オリジナルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-11-15T17:27:45Z) - Provably Efficient Reinforcement Learning for Online Adaptive Influence
Maximization [53.11458949694947]
本稿では,リアルタイムフィードバックに基づいてシードノードを逐次活性化する,コンテンツ依存型オンライン影響問題の適応バージョンについて検討する。
提案アルゴリズムは,最適政策を楽観的に改善しつつ,ネットワークモデルの推定を保守し,適応的にシードを選択する。
論文 参考訳(メタデータ) (2022-06-29T18:17:28Z) - Distributed Statistical Min-Max Learning in the Presence of Byzantine
Agents [34.46660729815201]
本稿では,ビザンチンの敵対的エージェントと競合する新たな課題に焦点をあて,マルチエージェントのmin-max学習問題を考察する。
我々の主な貢献は、滑らかな凸凹関数と滑らかな凸凸凸関数に対する頑健な外勾配アルゴリズムのクリップ解析を提供することである。
我々の利率はほぼ最適であり、敵の汚職の影響と非汚職エージェント間の協力の利益の両方を明らかにしている。
論文 参考訳(メタデータ) (2022-04-07T03:36:28Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Contingency-Aware Influence Maximization: A Reinforcement Learning
Approach [52.109536198330126]
インフルエンス(IM)問題は、インフルエンスの普及を最大化する、ソーシャルネットワーク内のシードノードのサブセットを見つけることを目的としている。
本研究では、招待されたノードがシードであるかどうかが不確実なIM問題(contingency-aware IM)に焦点をあてる。
最初の成功にもかかわらず、より多くのコミュニティへのソリューションの推進における大きな実践上の障害は、欲張りのアルゴリズムの巨大な実行時である。
論文 参考訳(メタデータ) (2021-06-13T16:42:22Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。