論文の概要: Network Inference and Influence Maximization from Samples
- arxiv url: http://arxiv.org/abs/2106.03403v1
- Date: Mon, 7 Jun 2021 08:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 10:01:58.129244
- Title: Network Inference and Influence Maximization from Samples
- Title(参考訳): サンプルからのネットワーク推論と影響最大化
- Authors: Wei Chen, Xiaoming Sun, Jialin Zhang, Zhijie Zhang
- Abstract要約: 本研究では,これらの種子の拡散を最大化するために,ソーシャルネットワーク上で少数の種子ノードを選択するタスクについて検討する。
我々は,データから拡散パラメータとネットワーク構造を学習するネットワーク推論問題に対して,カスケードの新しい解を提供する。
我々のIMSアルゴリズムは, 拡散パラメータの学習が困難な場合でも, 一定の近似比を許容することにより, 学習と最適化のアプローチを強化する。
- 参考スコア(独自算出の注目度): 20.916163957596577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Influence maximization is the task of selecting a small number of seed nodes
in a social network to maximize the spread of the influence from these seeds,
and it has been widely investigated in the past two decades. In the canonical
setting, the whole social network as well as its diffusion parameters is given
as input. In this paper, we consider the more realistic sampling setting where
the network is unknown and we only have a set of passively observed cascades
that record the set of activated nodes at each diffusion step. We study the
task of influence maximization from these cascade samples (IMS), and present
constant approximation algorithms for this task under mild conditions on the
seed set distribution. To achieve the optimization goal, we also provide a
novel solution to the network inference problem, that is, learning diffusion
parameters and the network structure from the cascade data. Comparing with
prior solutions, our network inference algorithm requires weaker assumptions
and does not rely on maximum-likelihood estimation and convex programming. Our
IMS algorithms enhance the learning-and-then-optimization approach by allowing
a constant approximation ratio even when the diffusion parameters are hard to
learn, and we do not need any assumption related to the network structure or
diffusion parameters.
- Abstract(参考訳): 影響最大化は,これらの種子の拡散を最大化するために,ソーシャルネットワーク内の少数の種子ノードを選択する作業であり,過去20年間に広く研究されてきた。
標準設定では、ソーシャルネットワーク全体とその拡散パラメータが入力として与えられる。
本稿では,ネットワークが未知である,より現実的なサンプリング設定を検討し,各拡散ステップでアクティブノードの集合を記録するパッシブ観測カスケードのセットのみを有する。
これらのカスケード試料 (ims) からの影響最大化の課題について検討し, 種子集合分布の穏やかな条件下での近似アルゴリズムを提案する。
最適化目標を達成するために,ネットワーク推論問題,すなわち,カスケードデータから拡散パラメータとネットワーク構造を学習する新たなソリューションを提供する。
従来の手法と比較して,ネットワーク推論アルゴリズムでは仮定が弱く,最大線量推定や凸計画に頼らない。
我々のIMSアルゴリズムは、拡散パラメータが学習困難である場合でも一定の近似比を許容し、ネットワーク構造や拡散パラメータに関する仮定を必要とせず、学習と最適化のアプローチを強化する。
関連論文リスト
- DSCom: A Data-Driven Self-Adaptive Community-Based Framework for
Influence Maximization in Social Networks [3.97535858363999]
我々は、属性ネットワーク上の問題を再構成し、ノード属性を利用して接続ノード間の近接性を推定する。
具体的には、この問題に対処するため、DSComという機械学習ベースのフレームワークを提案する。
従来の理論的研究と比較して,実世界のソーシャルネットワークに基づくパラメータ化拡散モデルを用いた実験実験を慎重に設計した。
論文 参考訳(メタデータ) (2023-11-18T14:03:43Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Layer Ensembles [95.42181254494287]
本稿では,ネットワークの各層に対する独立なカテゴリ分布の集合を考慮した不確実性推定手法を提案する。
その結果,メモリと実行時間が少なくなるモデルが得られた。
論文 参考訳(メタデータ) (2022-10-10T17:52:47Z) - Provably Efficient Reinforcement Learning for Online Adaptive Influence
Maximization [53.11458949694947]
本稿では,リアルタイムフィードバックに基づいてシードノードを逐次活性化する,コンテンツ依存型オンライン影響問題の適応バージョンについて検討する。
提案アルゴリズムは,最適政策を楽観的に改善しつつ,ネットワークモデルの推定を保守し,適応的にシードを選択する。
論文 参考訳(メタデータ) (2022-06-29T18:17:28Z) - PrEF: Percolation-based Evolutionary Framework for the
diffusion-source-localization problem in large networks [11.998014357342333]
我々は,拡散源を含む候補集合を定式化し,その集合を最小化するためにパーコレーションベースの進化的フレームワーク(PrEF)を提案する。
PrEFはネットワークパーコレーションと進化的アルゴリズムに基づいて開発された。
提案手法は, ほぼすべての症例において, 最先端技術と比較して, はるかに小さな候補セットを実現できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-16T02:15:14Z) - Learning Parameters for Balanced Index Influence Maximization [0.45119235878273]
我々は、与えられたネットワーク構造にその性能をチューニングするために3つのパラメータに依存するitバランスインデックスアルゴリズムにフォーカスする。
与えられた合成および大規模実世界のネットワークから小さなスナップショットを作成する。
スナップショット上で機械学習モデルをトレーニングし、このモデルを実単語ネットワークに適用して最適なbiパラメータを見つけます。
論文 参考訳(メタデータ) (2020-12-15T03:30:54Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。