論文の概要: Distributed Graph Learning with Smooth Data Priors
- arxiv url: http://arxiv.org/abs/2112.05887v1
- Date: Sat, 11 Dec 2021 00:52:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 18:59:32.377354
- Title: Distributed Graph Learning with Smooth Data Priors
- Title(参考訳): Smooth Data Priorsによる分散グラフ学習
- Authors: Isabela Cunha Maia Nobre, Mireille El Gheche, Pascal Frossard
- Abstract要約: 本稿では,ノード上の信号観測からグラフを推論する分散グラフ学習アルゴリズムを提案する。
この結果から,分散手法は,推定グラフの精度を損なうことなく,集中型アルゴリズムよりも通信コストが低いことがわかった。
- 参考スコア(独自算出の注目度): 61.405131495287755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph learning is often a necessary step in processing or representing
structured data, when the underlying graph is not given explicitly. Graph
learning is generally performed centrally with a full knowledge of the graph
signals, namely the data that lives on the graph nodes. However, there are
settings where data cannot be collected easily or only with a non-negligible
communication cost. In such cases, distributed processing appears as a natural
solution, where the data stays mostly local and all processing is performed
among neighbours nodes on the communication graph. We propose here a novel
distributed graph learning algorithm, which permits to infer a graph from
signal observations on the nodes under the assumption that the data is smooth
on the target graph. We solve a distributed optimization problem with local
projection constraints to infer a valid graph while limiting the communication
costs. Our results show that the distributed approach has a lower communication
cost than a centralised algorithm without compromising the accuracy in the
inferred graph. It also scales better in communication costs with the increase
of the network size, especially for sparse networks.
- Abstract(参考訳): グラフ学習は、基礎となるグラフが明示的に与えられていない場合、しばしば構造化データの処理や表現に必要となるステップである。
グラフ学習は一般的に、グラフ信号、すなわちグラフノード上に存在するデータに関する完全な知識で中心的に実行される。
しかし、データ収集が容易でなくても、通信コストが無視できないような設定もある。
そのような場合、分散処理は、データがほとんどローカルに残り、全ての処理が通信グラフ上の隣接ノード間で実行される自然なソリューションとして現れる。
本稿では,対象とするグラフ上でデータが滑らかであると仮定して,ノード上の信号観測からグラフを推定する分散グラフ学習アルゴリズムを提案する。
局所射影制約を持つ分散最適化問題を解き、通信コストを制限しながら有効なグラフを推定する。
この結果から,分散手法は,推定グラフの精度を損なうことなく,集中型アルゴリズムよりも通信コストが低いことがわかった。
また、特に疎ネットワークにおいて、ネットワークサイズの増加に伴って通信コストも向上する。
関連論文リスト
- Online Network Inference from Graph-Stationary Signals with Hidden Nodes [31.927912288598467]
本稿では,隠れノードの存在を考慮したオンライングラフ推定手法を提案する。
次に、ストリーミング不完全グラフ信号からのグラフ学習のための凸最適化問題を定式化する。
論文 参考訳(メタデータ) (2024-09-13T12:09:09Z) - Task-Oriented Communication for Graph Data: A Graph Information Bottleneck Approach [12.451324619122405]
本稿では,コミュニケーションのオーバーヘッドを低減しつつ,鍵情報を保持するタスク中心のより小さなサブグラフを抽出する手法を提案する。
提案手法では,グラフニューラルネットワーク(GNN)とグラフ情報ボトルネック(GIB)の原理を用いて,伝達に適したコンパクトで情報的,堅牢なグラフ表現を生成する。
論文 参考訳(メタデータ) (2024-09-04T14:01:56Z) - Federated Learning over Coupled Graphs [39.86903030911785]
主にユークリッドデータのために、データ分離問題を解決するためにフェデレートラーニング(FL)が提案されている。
本稿では,分散グラフデータの一種である結合グラフを効率的に扱うために,グラフデータのための新しいFLフレームワークであるFedCogを提案する。
論文 参考訳(メタデータ) (2023-01-26T13:43:26Z) - Graph Learning Across Data Silos [12.343382413705394]
本稿では,スムーズなグラフ信号からグラフトポロジを推定する問題を考える。
データは分散クライアントにあり、プライバシー上の懸念などの要因により、ローカルクライアントを去ることは禁じられている。
本稿では,各ローカルクライアントに対してパーソナライズされたグラフと,全クライアントに対して単一のコンセンサスグラフを共同で学習する,自動重み付き多重グラフ学習モデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T02:14:57Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Distributed Training of Graph Convolutional Networks using Subgraph
Approximation [72.89940126490715]
本稿では,グラフの複数の分割にまたがる失われる情報をサブグラフ近似スキームで緩和するトレーニング戦略を提案する。
サブグラフ近似アプローチは、分散トレーニングシステムが単一マシン精度で収束するのに役立つ。
論文 参考訳(メタデータ) (2020-12-09T09:23:49Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。