論文の概要: Learning Parameters for Balanced Index Influence Maximization
- arxiv url: http://arxiv.org/abs/2012.08067v1
- Date: Tue, 15 Dec 2020 03:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 12:04:39.899213
- Title: Learning Parameters for Balanced Index Influence Maximization
- Title(参考訳): バランスインデックス影響最大化のための学習パラメータ
- Authors: Manqing Ma, Gyorgy Korniss, Boleslaw K. Szymanski
- Abstract要約: 我々は、与えられたネットワーク構造にその性能をチューニングするために3つのパラメータに依存するitバランスインデックスアルゴリズムにフォーカスする。
与えられた合成および大規模実世界のネットワークから小さなスナップショットを作成する。
スナップショット上で機械学習モデルをトレーニングし、このモデルを実単語ネットワークに適用して最適なbiパラメータを見つけます。
- 参考スコア(独自算出の注目度): 0.45119235878273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Influence maximization is the task of finding the smallest set of nodes whose
activation in a social network can trigger an activation cascade that reaches
the targeted network coverage, where threshold rules determine the outcome of
influence. This problem is NP-hard and it has generated a significant amount of
recent research on finding efficient heuristics. We focus on a {\it Balance
Index} algorithm that relies on three parameters to tune its performance to the
given network structure. We propose using a supervised machine-learning
approach for such tuning. We select the most influential graph features for the
parameter tuning. Then, using random-walk-based graph-sampling, we create small
snapshots from the given synthetic and large-scale real-world networks. Using
exhaustive search, we find for these snapshots the high accuracy values of BI
parameters to use as a ground truth. Then, we train our machine-learning model
on the snapshots and apply this model to the real-word network to find the best
BI parameters. We apply these parameters to the sampled real-world network to
measure the quality of the sets of initiators found this way. We use various
real-world networks to validate our approach against other heuristic.
- Abstract(参考訳): 影響最大化(英語: Influence maximization)とは、ソーシャルネットワークでアクティベーションを行うノードの最小セットを見つけるタスクであり、ターゲットネットワークのカバレッジに達するアクティベーションカスケードをトリガーし、しきい値ルールが影響の結果を決定する。
この問題はNPハードであり、効率的なヒューリスティックの発見に関する最近の研究のかなりの数を生み出している。
本稿では,その性能を所定のネットワーク構造に合わせるために,3つのパラメータに依存するアルゴリズムに焦点をあてる。
このようなチューニングのために教師付き機械学習アプローチを提案する。
パラメータチューニングにおいて最も影響力のあるグラフ機能を選択する。
そして、ランダムウォークに基づくグラフサンプリングを用いて、与えられた合成および大規模現実世界ネットワークから小さなスナップショットを作成する。
徹底的な検索を用いて,biパラメータの高精度値を基礎的真理として使用するスナップショットを求める。
そして、スナップショット上で機械学習モデルをトレーニングし、このモデルを実単語ネットワークに適用して最適なbiパラメータを見つけます。
これらのパラメータを実世界のサンプルネットワークに適用し、この方法で得られた開始子の集合の質を測定する。
我々は、他のヒューリスティックに対するアプローチを検証するために、様々な現実世界のネットワークを使用します。
関連論文リスト
- Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Low-Rank Representations Meets Deep Unfolding: A Generalized and
Interpretable Network for Hyperspectral Anomaly Detection [41.50904949744355]
現在のハイパースペクトル異常検出(HAD)ベンチマークデータセットは、低解像度、単純なバックグラウンド、検出データの小さなサイズに悩まされている。
これらの要因は、ロバスト性の観点からよく知られた低ランク表現(LRR)モデルの性能も制限する。
我々は、複雑なシナリオにおけるHADアルゴリズムの堅牢性を改善するために、新しいHADベンチマークデータセットであるAIR-HADを構築した。
論文 参考訳(メタデータ) (2024-02-23T14:15:58Z) - Neural Network Pruning by Gradient Descent [7.427858344638741]
我々は,Gumbel-Softmaxテクニックを取り入れた,新しい,かつ簡単なニューラルネットワークプルーニングフレームワークを提案する。
ネットワークパラメータの0.15%しか持たないMNISTデータセット上で、高い精度を維持しながら、例外的な圧縮能力を実証する。
我々は,ディープラーニングプルーニングと解釈可能な機械学習システム構築のための,有望な新たな道を開くと信じている。
論文 参考訳(メタデータ) (2023-11-21T11:12:03Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - ToupleGDD: A Fine-Designed Solution of Influence Maximization by Deep
Reinforcement Learning [4.266866385061998]
本稿では、影響最大化(IM)問題に対処するため、新しいエンドツーエンドDRLフレームワークToupleGDDを提案する。
我々のモデルは、小さな予算でランダムに生成されたいくつかの小さなグラフで訓練され、様々な大きな予算の下で全く異なるネットワークでテストされる。
論文 参考訳(メタデータ) (2022-10-14T03:56:53Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Improving Parametric Neural Networks for High-Energy Physics (and
Beyond) [0.0]
本研究の目的は,現実世界の使用状況に照らして,パラメトリックニューラルネットワーク(pNN)ネットワークの理解を深めることである。
本稿では,新しいパラメータ化ニューラルネットワークアーキテクチャであるAffinePNNを提案する。
我々は、その不均衡バージョン(HEPMASS-IMB)に沿って、HEPMASSデータセット上で、我々のモデルを広範囲に評価する。
論文 参考訳(メタデータ) (2022-02-01T14:18:43Z) - Network Inference and Influence Maximization from Samples [20.916163957596577]
本研究では,これらの種子の拡散を最大化するために,ソーシャルネットワーク上で少数の種子ノードを選択するタスクについて検討する。
我々は,データから拡散パラメータとネットワーク構造を学習するネットワーク推論問題に対して,カスケードの新しい解を提供する。
我々のIMSアルゴリズムは, 拡散パラメータの学習が困難な場合でも, 一定の近似比を許容することにより, 学習と最適化のアプローチを強化する。
論文 参考訳(メタデータ) (2021-06-07T08:06:36Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。