論文の概要: Dynamic Gradient Influencing for Viral Marketing Using Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2403.12399v2
- Date: Wed, 19 Feb 2025 20:30:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:25:32.560314
- Title: Dynamic Gradient Influencing for Viral Marketing Using Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークを用いたバイラルマーケティングにおける動的勾配の影響
- Authors: Saurabh Sharma, Ambuj Singh,
- Abstract要約: グラフニューラルネットワークを用いて、トポロジカル情報と属性情報の両方を利用して製品の採用をモデル化する。
結果のDynamic Viral Marketing(DVM)問題は、最小限の予算と最小限の動的属性変更を見つけることを目指している。
本研究では,最適摂動を求めるためにランキングを用いた動的勾配影響(DGI)の考え方を考案する。
- 参考スコア(独自算出の注目度): 3.053989095162017
- License:
- Abstract: The problem of maximizing the adoption of a product through viral marketing in social networks has been studied heavily through postulated network models. We present a novel data-driven formulation of the problem. We use Graph Neural Networks (GNNs) to model the adoption of products by utilizing both topological and attribute information. The resulting Dynamic Viral Marketing (DVM) problem seeks to find the minimum budget and minimal set of dynamic topological and attribute changes in order to attain a specified adoption goal. We show that DVM is NP-Hard and is related to the existing influence maximization problem. Motivated by this connection, we develop the idea of Dynamic Gradient Influencing (DGI) that uses gradient ranking to find optimal perturbations and targets low-budget and high influence non-adopters in discrete steps. We use an efficient strategy for computing node budgets and develop the ''Meta-Influence'' heuristic for assessing a node's downstream influence. We evaluate DGI against multiple baselines and demonstrate gains on average of 24% on budget and 37% on AUC on real-world attributed networks. Our code is publicly available at https://github.com/saurabhsharma1993/dynamic_viral_marketing.
- Abstract(参考訳): ソーシャルネットワークにおけるバイラルマーケティングを通じて製品の採用を最大化する問題は、仮定されたネットワークモデルによって大きく研究されている。
この問題の新しいデータ駆動型定式化を提案する。
グラフニューラルネットワーク(GNN)を用いて、トポロジと属性情報の両方を利用して製品の採用をモデル化する。
結果のDynamic Viral Marketing(DVM)問題は、特定の採用目標を達成するために、最小限の予算と最小限の動的トポロジと属性の変更を見つけることを目指している。
DVM はNP-Hard であり,既存の影響最大化問題と関連していることを示す。
この接続によって動機づけられたDGI(Dynamic Gradient Influencing)のアイデアは、勾配ランキングを用いて最適な摂動を見つけ、離散的なステップで低予算かつ高影響の非ドローンをターゲットにするものである。
我々はノード予算の計算に効率的な戦略を用い、ノードの下流への影響を評価するための'Meta-Influence'のヒューリスティックを開発する。
我々は、複数のベースラインに対してDGIを評価し、予算で平均24%、現実の属性ネットワークでAUCで平均37%の利得を示した。
私たちのコードはhttps://github.com/saurabhsharma 1993/dynamic_viral_marketing.comで公開されています。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Adversarial Attack on Graph Neural Networks as An Influence Maximization
Problem [12.88476464580968]
グラフニューラルネットワーク(GNN)が注目されている。
敵の攻撃下でのGNNの堅牢性を理解する必要がある。
論文 参考訳(メタデータ) (2021-06-21T00:47:44Z) - Black-box Gradient Attack on Graph Neural Networks: Deeper Insights in
Graph-based Attack and Defense [3.3504365823045035]
グラフニューラルネットワーク(gnns)は、さまざまなグラフ表現学習タスクにおける最先端のパフォーマンスにより、大きな注目を集めている。
近年の研究では、GNNは敵の攻撃に弱いことが判明している。
攻撃者はグラフ構造やノード機能を意図的に乱すことで、GNNを騙すことができる。
既存の攻撃アルゴリズムの多くは、実際の世界では実用的ではないモデルパラメータまたはトレーニングデータへのアクセスを必要とする。
論文 参考訳(メタデータ) (2021-04-30T15:30:47Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Exploiting Vulnerability of Pooling in Convolutional Neural Networks by
Strict Layer-Output Manipulation for Adversarial Attacks [7.540176446791261]
畳み込みニューラルネットワーク(CNN)は、インテリジェント車両などの移動ロボットにますます適用されています。
ロボットアプリケーションにおけるCNNのセキュリティは重要な問題であり、CNNに対する潜在的な敵対攻撃は研究に値する。
本稿では,ネットワーク構造の観点から,プールの脆弱性を調査し,活用することで,CNNに対する敵対攻撃を行う。
論文 参考訳(メタデータ) (2020-12-21T15:18:41Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。