論文の概要: Structure-prior Informed Diffusion Model for Graph Source Localization with Limited Data
- arxiv url: http://arxiv.org/abs/2502.17928v1
- Date: Tue, 25 Feb 2025 07:47:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:18:59.114006
- Title: Structure-prior Informed Diffusion Model for Graph Source Localization with Limited Data
- Title(参考訳): 限られたデータを用いたグラフソース定位のための構造優先インフォームド拡散モデル
- Authors: Hongyi Chen, Jingtao Ding, Xiaojun Liang, Yong Li, Xiao-Ping Zhang,
- Abstract要約: 本稿では、限定データシナリオにおける3つの重要な課題に対処する新しいフレームワークであるSIDSLを紹介する。
SIDSLは、グラフラベルの伝搬を通じてトポロジ対応の先行情報を取り込み、伝搬強化された条件付きデノイザを用いる。
4つの実世界のデータセットに対する実験の結果は、SIDSLの優れた性能を示している。
- 参考スコア(独自算出の注目度): 13.443269048443627
- License:
- Abstract: The source localization problem in graph information propagation is crucial for managing various network disruptions, from misinformation spread to infrastructure failures. While recent deep generative approaches have shown promise in this domain, their effectiveness is limited by the scarcity of real-world propagation data. This paper introduces SIDSL (\textbf{S}tructure-prior \textbf{I}nformed \textbf{D}iffusion model for \textbf{S}ource \textbf{L}ocalization), a novel framework that addresses three key challenges in limited-data scenarios: unknown propagation patterns, complex topology-propagation relationships, and class imbalance between source and non-source nodes. SIDSL incorporates topology-aware priors through graph label propagation and employs a propagation-enhanced conditional denoiser with a GNN-parameterized label propagation module (GNN-LP). Additionally, we propose a structure-prior biased denoising scheme that initializes from structure-based source estimations rather than random noise, effectively countering class imbalance issues. Experimental results across four real-world datasets demonstrate SIDSL's superior performance, achieving 7.5-13.3% improvements in F1 scores compared to state-of-the-art methods. Notably, when pretrained with simulation data of synthetic patterns, SIDSL maintains robust performance with only 10% of training data, surpassing baselines by more than 18.8%. These results highlight SIDSL's effectiveness in real-world applications where labeled data is scarce.
- Abstract(参考訳): グラフ情報伝達におけるソースローカライズ問題は,誤情報拡散からインフラストラクチャ障害に至るまで,さまざまなネットワーク障害の管理に不可欠である。
近年の深層生成的アプローチは、この領域において有望であることを示しているが、それらの効果は、現実世界の伝播データの不足によって制限されている。
本稿ではSIDSL(\textbf{S}tructure-prior \textbf{I}nformed \textbf{D}iffusion model for \textbf{S}ource \textbf{L}ocalization)を紹介する。
SIDSLは、グラフラベルの伝搬を通じてトポロジ対応の先行情報を取り込み、GNNパラメータ付きラベル伝搬モジュール(GNN-LP)を備えた伝搬強化条件付きデノイザを用いる。
さらに、ランダムノイズではなく、構造に基づくソース推定から初期化する構造優先バイアス型デノケーション手法を提案し、クラス不均衡問題に効果的に対処する。
4つの実世界のデータセットに対する実験結果は、SIDSLの優れたパフォーマンスを示し、最先端の手法と比較してF1スコアが7.5-13.3%向上した。
特に、合成パターンのシミュレーションデータで事前訓練された場合、SIDSLはトレーニングデータの10%しか持たず、ベースラインを18.8%以上上回る堅牢なパフォーマンスを維持している。
これらの結果は,ラベル付きデータが不足している実世界のアプリケーションにおけるSIDSLの有効性を浮き彫りにしている。
関連論文リスト
- A Novel Pearson Correlation-Based Merging Algorithm for Robust Distributed Machine Learning with Heterogeneous Data [0.0]
本稿では,局所的な更新の質を改善し,グローバルモデルのロバスト性を高めるための新しい手法を提案する。
提案アルゴリズムは,グローバルモデルの精度を維持しながら,局所ノード数を削減する。
シミュレーション学習シナリオにおけるMNISTデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2025-01-19T16:59:07Z) - Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - SEMRes-DDPM: Residual Network Based Diffusion Modelling Applied to
Imbalanced Data [9.969882349165745]
データマイニングと機械学習の分野では、一般的に使われている分類モデルは、不均衡なデータで効果的に学習することはできない。
古典的なオーバーサンプリング手法の多くは、データのローカル情報のみに焦点を当てたSMOTE技術に基づいている。
本稿では,SEMRes-DDPMのオーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T14:01:04Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - A Newton-type algorithm for federated learning based on incremental
Hessian eigenvector sharing [5.404315085380945]
我々は、フェデレートラーニング(FL)を高速化するために設計された、通信制約付きニュートン型(NT)アルゴリズムを提案する。
提案手法は実際のデータセットで完全に検証される。
論文 参考訳(メタデータ) (2022-02-11T17:52:56Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。