論文の概要: Structure-prior Informed Diffusion Model for Graph Source Localization with Limited Data
- arxiv url: http://arxiv.org/abs/2502.17928v1
- Date: Tue, 25 Feb 2025 07:47:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 17:42:45.850453
- Title: Structure-prior Informed Diffusion Model for Graph Source Localization with Limited Data
- Title(参考訳): 限られたデータを用いたグラフソース定位のための構造優先インフォームド拡散モデル
- Authors: Hongyi Chen, Jingtao Ding, Xiaojun Liang, Yong Li, Xiao-Ping Zhang,
- Abstract要約: 本稿では、限定データシナリオにおける3つの重要な課題に対処する新しいフレームワークであるSIDSLを紹介する。
SIDSLは、グラフラベルの伝搬を通じてトポロジ対応の先行情報を取り込み、伝搬強化された条件付きデノイザを用いる。
4つの実世界のデータセットに対する実験の結果は、SIDSLの優れた性能を示している。
- 参考スコア(独自算出の注目度): 13.443269048443627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The source localization problem in graph information propagation is crucial for managing various network disruptions, from misinformation spread to infrastructure failures. While recent deep generative approaches have shown promise in this domain, their effectiveness is limited by the scarcity of real-world propagation data. This paper introduces SIDSL (\textbf{S}tructure-prior \textbf{I}nformed \textbf{D}iffusion model for \textbf{S}ource \textbf{L}ocalization), a novel framework that addresses three key challenges in limited-data scenarios: unknown propagation patterns, complex topology-propagation relationships, and class imbalance between source and non-source nodes. SIDSL incorporates topology-aware priors through graph label propagation and employs a propagation-enhanced conditional denoiser with a GNN-parameterized label propagation module (GNN-LP). Additionally, we propose a structure-prior biased denoising scheme that initializes from structure-based source estimations rather than random noise, effectively countering class imbalance issues. Experimental results across four real-world datasets demonstrate SIDSL's superior performance, achieving 7.5-13.3% improvements in F1 scores compared to state-of-the-art methods. Notably, when pretrained with simulation data of synthetic patterns, SIDSL maintains robust performance with only 10% of training data, surpassing baselines by more than 18.8%. These results highlight SIDSL's effectiveness in real-world applications where labeled data is scarce.
- Abstract(参考訳): グラフ情報伝達におけるソースローカライズ問題は,誤情報拡散からインフラストラクチャ障害に至るまで,さまざまなネットワーク障害の管理に不可欠である。
近年の深層生成的アプローチは、この領域において有望であることを示しているが、それらの効果は、現実世界の伝播データの不足によって制限されている。
本稿ではSIDSL(\textbf{S}tructure-prior \textbf{I}nformed \textbf{D}iffusion model for \textbf{S}ource \textbf{L}ocalization)を紹介する。
SIDSLは、グラフラベルの伝搬を通じてトポロジ対応の先行情報を取り込み、GNNパラメータ付きラベル伝搬モジュール(GNN-LP)を備えた伝搬強化条件付きデノイザを用いる。
さらに、ランダムノイズではなく、構造に基づくソース推定から初期化する構造優先バイアス型デノケーション手法を提案し、クラス不均衡問題に効果的に対処する。
4つの実世界のデータセットに対する実験結果は、SIDSLの優れたパフォーマンスを示し、最先端の手法と比較してF1スコアが7.5-13.3%向上した。
特に、合成パターンのシミュレーションデータで事前訓練された場合、SIDSLはトレーニングデータの10%しか持たず、ベースラインを18.8%以上上回る堅牢なパフォーマンスを維持している。
これらの結果は,ラベル付きデータが不足している実世界のアプリケーションにおけるSIDSLの有効性を浮き彫りにしている。
関連論文リスト
- Generative Data Transformation: From Mixed to Unified Data [57.84692191369066]
textscTaesarはtextbftarget-textbfal textbfregenerationのためのEmphdata中心のフレームワークである。
ドメイン間のコンテキストを対象のシーケンスにエンコードすることで、複雑な融合アーキテクチャを使わずに、標準的なモデルで複雑な依存関係を学習することができる。
論文 参考訳(メタデータ) (2026-02-26T08:30:09Z) - Deep Leakage with Generative Flow Matching Denoiser [54.05993847488204]
再建プロセスに先立って生成フローマッチング(FM)を組み込んだ新しい深部リーク攻撃(DL)を導入する。
当社のアプローチは、ピクセルレベル、知覚的、特徴に基づく類似度測定において、最先端の攻撃よりも一貫して優れています。
論文 参考訳(メタデータ) (2026-01-21T14:51:01Z) - Consolidation or Adaptation? PRISM: Disentangling SFT and RL Data via Gradient Concentration [56.074760766965085]
PRISMは、モデルの既存の知識との認知的対立度に基づいてデータを調停する動的認識フレームワークを実現する。
この結果から,内部最適化方式に基づくデータ分離が,スケーラブルでロバストなエージェントアライメントに不可欠であることが示唆された。
論文 参考訳(メタデータ) (2026-01-12T05:43:20Z) - Cross-Domain Federated Semantic Communication with Global Representation Alignment and Domain-Aware Aggregation [102.51096131854848]
本研究は,画像再構成作業における意味コミュニケーションシステムの訓練における領域シフトを考慮した最初の試みである。
提案手法は,SNRが1dBの3領域のPSNR値に対して,モデルコントラストFL(MOON)フレームワークを0.5倍に向上させる。
論文 参考訳(メタデータ) (2025-11-30T03:19:59Z) - An Advanced Convolutional Neural Network for Bearing Fault Diagnosis under Limited Data [5.351573093028336]
本稿では,限られたデータの下で故障診断を行うための高度なデータ拡張とコントラッシブ・フーリエ・コンボリューション・フレームワーク(DAC-FCF)を提案する。
DAC-FCFは、ベースラインを最大32%上回る、大幅な改善を達成している。
論文 参考訳(メタデータ) (2025-09-14T02:41:48Z) - Widening the Network Mitigates the Impact of Data Heterogeneity on FedAvg [6.185573921868495]
フェデレートラーニング(FL)により、分散クライアントは、ローカルデータを共有せずに、協調的にモデルをトレーニングできる。
ニューラルネットワークの幅が大きくなると、データの不均一性の影響は減少し、幅が無限に近づくと最終的に消滅する。
無限幅系では、FedAvgのグローバルモデルと局所モデルの両方が線形モデルとして振る舞うことがさらに証明され、FedAvgはGD反復数と同じ数の集中学習と同じ一般化性能を達成する。
論文 参考訳(メタデータ) (2025-08-18T02:22:55Z) - DFed-SST: Building Semantic- and Structure-aware Topologies for Decentralized Federated Graph Learning [5.072144098417946]
Decentralized Federated Learning (DFL)は、堅牢な分散パラダイムとして登場した。
本稿では,適応通信を用いた分散グラフ学習フレームワークDFed-SSTを提案する。
8つの実世界のデータセットの実験は、DFed-SSTの優位性を一貫して示し、ベースライン法よりも平均精度が3.26%向上した。
論文 参考訳(メタデータ) (2025-08-15T15:15:54Z) - A Transfer Framework for Enhancing Temporal Graph Learning in Data-Scarce Settings [30.97142882931946]
エンティティ間の動的相互作用は、ソーシャルプラットフォーム、金融システム、ヘルスケア、電子商取引のようなドメインで一般的である。
TGNNはそのような予測タスクに対して強力な結果を得ているが、通常、現実世界のシナリオで制限される広範なトレーニングデータを必要とする。
本稿では,ノード表現を関連する特徴から2部符号化機構によって切り離す新しい転送手法を提案する。
論文 参考訳(メタデータ) (2025-03-02T11:10:29Z) - PRISM: Self-Pruning Intrinsic Selection Method for Training-Free Multimodal Data Selection [68.8373788348678]
ビジュアルインストラクションチューニングは、事前訓練されたマルチモーダル大言語モデルに人間の指示に従うように適応する。
PRISMは、効率的な視覚的命令選択のための最初のトレーニング不要のフレームワークである。
データ選択とモデルチューニングのエンドツーエンドの時間を従来のパイプラインの30%に短縮する。
論文 参考訳(メタデータ) (2025-02-17T18:43:41Z) - A Novel Pearson Correlation-Based Merging Algorithm for Robust Distributed Machine Learning with Heterogeneous Data [0.0]
本稿では,局所的な更新の質を改善し,グローバルモデルのロバスト性を高めるための新しい手法を提案する。
提案アルゴリズムは,グローバルモデルの精度を維持しながら,局所ノード数を削減する。
シミュレーション学習シナリオにおけるMNISTデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2025-01-19T16:59:07Z) - Mean flow data assimilation using physics-constrained Graph Neural Networks [0.0]
本研究では,グラフニューラルネットワーク(GNN)と最適化手法を統合し,平均流路復元の精度を高める新しいデータ同化手法を提案する。
GNNフレームワークは非構造化データを扱うのに適しており、計算流体力学(CFD)で遭遇する複雑な測地に共通している。
その結果,データ駆動モデルに類似するモデルと比較して,訓練データに制限がある場合でも,平均フロー再構成の精度は著しく向上した。
論文 参考訳(メタデータ) (2024-11-14T14:31:52Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - SeisFusion: Constrained Diffusion Model with Input Guidance for 3D Seismic Data Interpolation and Reconstruction [26.02191880837226]
本研究では3次元地震データに適した新しい拡散モデル再構成フレームワークを提案する。
拡散モデルに3次元ニューラルネットワークアーキテクチャを導入し、2次元拡散モデルを3次元空間に拡張することに成功した。
本手法は、フィールドデータセットと合成データセットの両方に適用した場合、より優れた再構成精度を示す。
論文 参考訳(メタデータ) (2024-03-18T05:10:13Z) - SEMRes-DDPM: Residual Network Based Diffusion Modelling Applied to
Imbalanced Data [9.969882349165745]
データマイニングと機械学習の分野では、一般的に使われている分類モデルは、不均衡なデータで効果的に学習することはできない。
古典的なオーバーサンプリング手法の多くは、データのローカル情報のみに焦点を当てたSMOTE技術に基づいている。
本稿では,SEMRes-DDPMのオーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T14:01:04Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。