論文の概要: DiffIM: Differentiable Influence Minimization with Surrogate Modeling and Continuous Relaxation
- arxiv url: http://arxiv.org/abs/2502.01031v1
- Date: Mon, 03 Feb 2025 03:54:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:53:35.491761
- Title: DiffIM: Differentiable Influence Minimization with Surrogate Modeling and Continuous Relaxation
- Title(参考訳): DiffIM: サロゲートモデリングと継続的緩和による影響最小化
- Authors: Junghun Lee, Hyunju Kim, Fanchen Bu, Jihoon Ko, Kijung Shin,
- Abstract要約: 影響最小化(IMIN)は、ノード間の伝播を減らすために入力グラフの構造を操作する問題である。
DiffIMは、加速のための2つの異なるスキームを持つIMINの新しい手法である。
提案手法は,IMINの性能劣化をほとんど(あるいは全く)伴わず,性能を著しく向上させることを示す。
- 参考スコア(独自算出の注目度): 23.06479920145709
- License:
- Abstract: In social networks, people influence each other through social links, which can be represented as propagation among nodes in graphs. Influence minimization (IMIN) is the problem of manipulating the structures of an input graph (e.g., removing edges) to reduce the propagation among nodes. IMIN can represent time-critical real-world applications, such as rumor blocking, but IMIN is theoretically difficult and computationally expensive. Moreover, the discrete nature of IMIN hinders the usage of powerful machine learning techniques, which requires differentiable computation. In this work, we propose DiffIM, a novel method for IMIN with two differentiable schemes for acceleration: (1) surrogate modeling for efficient influence estimation, which avoids time-consuming simulations (e.g., Monte Carlo), and (2) the continuous relaxation of decisions, which avoids the evaluation of individual discrete decisions (e.g., removing an edge). We further propose a third accelerating scheme, gradient-driven selection, that chooses edges instantly based on gradients without optimization (spec., gradient descent iterations) on each test instance. Through extensive experiments on real-world graphs, we show that each proposed scheme significantly improves speed with little (or even no) IMIN performance degradation. Our method is Pareto-optimal (i.e., no baseline is faster and more effective than it) and typically several orders of magnitude (spec., up to 15,160X) faster than the most effective baseline while being more effective.
- Abstract(参考訳): ソーシャルネットワークでは、グラフ内のノード間の伝搬として表現できるソーシャルリンクを通じて、人々は互いに影響する。
影響最小化(IMIN)は、入力グラフ(例えば、エッジを除去する)の構造を操作することでノード間の伝搬を低減する問題である。
IMINは、噂のブロッキングのような時間的クリティカルな現実世界の応用を表現できるが、IMINは理論的には困難で計算コストが高い。
さらに、IMINの離散的な性質は、微分可能な計算を必要とする強力な機械学習技術の使用を妨げる。
本研究では,(1)効率的な影響推定のためのシュロゲート・モデリング,(2)時間を要するシミュレーション(例えばモンテカルロ)の回避,(2)個々の決定(例えばエッジの除去)の評価を回避した意思決定の継続的な緩和,の2つの異なる手法を用いたIMINの新しい手法であるDiffIMを提案する。
さらに、各テストインスタンス上で最適化(特に勾配降下反復)を伴わない勾配に基づいて、エッジを瞬時に選択する第3の高速化スキーム、勾配駆動選択を提案する。
実世界のグラフに関する広範な実験を通して,提案手法はIMINの性能劣化をほとんど(あるいは全く)伴わず,速度を著しく改善することを示した。
我々の手法はパレート最適化であり(つまり、ベースラインはそれよりも速く、より効果的である)、通常、最も有効なベースラインよりも数桁(特に15,160Xまで)高速でありながら、より効果的である。
関連論文リスト
- Gradient Descent Efficiency Index [0.0]
本研究では,各イテレーションの有効性を定量化するために,新しい効率指標Ekを導入する。
提案した測定基準は、誤差の相対的変化と繰り返し間の損失関数の安定性の両方を考慮に入れている。
Ekは、機械学習アプリケーションにおける最適化アルゴリズムの選択とチューニングにおいて、より詳細な決定を導く可能性がある。
論文 参考訳(メタデータ) (2024-10-25T10:22:22Z) - Unifews: Unified Entry-Wise Sparsification for Efficient Graph Neural Network [10.556366638048384]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクにおいて有望な性能を示すが、リソース集約型計算のコストがかかる。
従来の研究では,グラフレベルやネットワークレベルのスペーシフィケーション技術を活用して,計算予算の削減を試みた。
個々の行列要素を考慮したエントリワイズ方式で2つの演算を統一するUnifewsを提案する。
論文 参考訳(メタデータ) (2024-03-20T03:07:30Z) - Revisiting Edge Perturbation for Graph Neural Network in Graph Data
Augmentation and Attack [58.440711902319855]
エッジ摂動はグラフ構造を変更する方法である。
グラフニューラルネットワーク(GNN)の性能への影響に基づき、2つの静脈に分類できる。
統一的な定式化を提案し、エッジ摂動法の2つのカテゴリ間の明確な境界を確立する。
論文 参考訳(メタデータ) (2024-03-10T15:50:04Z) - PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - Accelerated primal-dual methods with enlarged step sizes and operator
learning for nonsmooth optimal control problems [3.1006429989273063]
本稿では,異なる種類の変数を個別に扱える原始双対法の適用に焦点をあてる。
ステップサイズが大きい高速化された原始双対法では、元の原始双対法を数値的に高速化しながら、その収束を厳密に証明することができる。
演算子学習アクセラレーションのために、関連するPDEのためのディープニューラルネットワークサロゲートモデルを構築する。
論文 参考訳(メタデータ) (2023-07-01T10:39:07Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Error-Correcting Neural Networks for Semi-Lagrangian Advection in the
Level-Set Method [0.0]
本稿では,画像超解像技術とスカラートランスポートを融合した機械学習フレームワークを提案する。
我々は,インターフェースの粗いメッシュ進化における数値粘度を最小化するために,オンザフライデータ駆動補正を計算できるかどうかを検討する。
論文 参考訳(メタデータ) (2021-10-22T06:36:15Z) - Efficient Differentiable Simulation of Articulated Bodies [89.64118042429287]
本稿では, 音素の効率的な微分可能シミュレーション法を提案する。
これにより、ボディダイナミクスを深層学習フレームワークに統合することが可能になる。
提案手法を用いて, 調音システムによる強化学習を高速化できることを示す。
論文 参考訳(メタデータ) (2021-09-16T04:48:13Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。