論文の概要: Graph Neural Networks Go Forward-Forward
- arxiv url: http://arxiv.org/abs/2302.05282v1
- Date: Fri, 10 Feb 2023 14:45:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 15:33:03.440737
- Title: Graph Neural Networks Go Forward-Forward
- Title(参考訳): グラフニューラルネットワークが前方へ
- Authors: Daniele Paliotta, Mathieu Alain, B\'alint M\'at\'e, Fran\c{c}ois
Fleuret
- Abstract要約: グラフフォワード・フォワード法の拡張であるグラフフォワード・フォワード法(GFF)を提案する。
提案手法はメッセージパッシング方式であり,バックプロパゲーションよりも生物学的に妥当な学習方式を提供する。
11の標準グラフ特性予測タスクの実験を行い、GFFがバックプロパゲーションの効果的な代替手段を提供する方法を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Graph Forward-Forward (GFF) algorithm, an extension of the
Forward-Forward procedure to graphs, able to handle features distributed over a
graph's nodes. This allows training graph neural networks with forward passes
only, without backpropagation. Our method is agnostic to the message-passing
scheme, and provides a more biologically plausible learning scheme than
backpropagation, while also carrying computational advantages. With GFF, graph
neural networks are trained greedily layer by layer, using both positive and
negative samples. We run experiments on 11 standard graph property prediction
tasks, showing how GFF provides an effective alternative to backpropagation for
training graph neural networks. This shows in particular that this procedure is
remarkably efficient in spite of combining the per-layer training with the
locality of the processing in a GNN.
- Abstract(参考訳): 本稿では,グラフのノードに分散した特徴を扱えるグラフフォワード・フォワード法の拡張であるグラフフォワード・フォワード法を提案する。
これにより、バックプロパゲーションなしでフォワードパスのみによるグラフニューラルネットワークのトレーニングが可能になる。
提案手法はメッセージパス方式に非依存であり,バックプロパゲーションよりも生物学的に妥当な学習方式を提供するとともに,計算上の利点ももたらしている。
gffでは、グラフニューラルネットワークは、正のサンプルと負のサンプルの両方を使用して、層ごとにゆるやかにトレーニングされる。
我々は、11の標準グラフ特性予測タスクで実験を行い、gffがグラフニューラルネットワークのトレーニングにバックプロパゲーションの効果的な代替を提供する方法を示した。
これは特に、GNNにおける処理の局所性と層ごとのトレーニングを組み合わせながら、この手順が極めて効率的であることを示している。
関連論文リスト
- Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - DiP-GNN: Discriminative Pre-Training of Graph Neural Networks [49.19824331568713]
GNNのパワーを高めるために,グラフニューラルネットワーク(GNN)事前学習法が提案されている。
一般的な事前トレーニング手法の1つは、エッジのパーセンテージをマスクアウトすることであり、GNNはそれらを回復するように訓練されている。
筆者らのフレームワークでは, 識別器が見るグラフは, マスキングエッジの比率を回復できるため, 元のグラフとよく一致している。
論文 参考訳(メタデータ) (2022-09-15T17:41:50Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Training Graph Neural Networks by Graphon Estimation [2.5997274006052544]
本稿では,基礎となるネットワークデータから得られたグラフトン推定値から再サンプリングすることで,グラフニューラルネットワークをトレーニングする。
我々のアプローチは競争力があり、多くの場合、他の過度にスムースなGNNトレーニング手法よりも優れています。
論文 参考訳(メタデータ) (2021-09-04T19:21:48Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - GraphTheta: A Distributed Graph Neural Network Learning System With
Flexible Training Strategy [5.466414428765544]
新しい分散グラフ学習システムGraphThetaを紹介します。
複数のトレーニング戦略をサポートし、大規模グラフ上で効率的でスケーラブルな学習を可能にします。
この仕事は、文学における10億規模のネットワーク上で実施された最大のエッジアトリビュートGNN学習タスクを表します。
論文 参考訳(メタデータ) (2021-04-21T14:51:33Z) - Variational models for signal processing with Graph Neural Networks [3.5939555573102853]
本稿では,ニューラルネットワークを用いた点雲の信号処理について述べる。
本研究では,このようなグラフニューラルネットワークの変分モデルを用いて,教師なし学習のためのグラフ上の信号を処理する方法を検討する。
論文 参考訳(メタデータ) (2021-03-30T13:31:11Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。