論文の概要: Message passing all the way up
- arxiv url: http://arxiv.org/abs/2202.11097v1
- Date: Tue, 22 Feb 2022 18:57:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 15:41:29.849535
- Title: Message passing all the way up
- Title(参考訳): 至る所を通すメッセージ
- Authors: Petar Veli\v{c}kovi\'c
- Abstract要約: 通常の談話では「伝言の傍ら」が至るところに広まっている。
グラフ上で計算したい関心の関数は、いずれにせよ、ペアワイズメッセージパッシングを使って表現できることを示します。
私は、"Beyond Message Pass"を"Augmented Message Pass"というよりタメな用語に置き換えることを提案します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The message passing framework is the foundation of the immense success
enjoyed by graph neural networks (GNNs) in recent years. In spite of its
elegance, there exist many problems it provably cannot solve over given input
graphs. This has led to a surge of research on going "beyond message passing",
building GNNs which do not suffer from those limitations -- a term which has
become ubiquitous in regular discourse. However, have those methods truly moved
beyond message passing? In this position paper, I argue about the dangers of
using this term -- especially when teaching graph representation learning to
newcomers. I show that any function of interest we want to compute over graphs
can, in all likelihood, be expressed using pairwise message passing -- just
over a potentially modified graph, and argue how most practical implementations
subtly do this kind of trick anyway. Hoping to initiate a productive
discussion, I propose replacing "beyond message passing" with a more tame term,
"augmented message passing".
- Abstract(参考訳): メッセージパッシングフレームワークは、近年のグラフニューラルネットワーク(GNN)による大きな成功の基礎となっている。
その優雅さにもかかわらず、与えられた入力グラフに対して確実に解決できない問題が数多く存在する。
このことは、メッセージパッシング(メッセージパッシング)を越えて、これらの制限に苦しめられていないGNN(通常の言論ではユビキタスになった用語)を構築するという研究の急増につながった。しかし、これらの手法は本当にメッセージパッシングを超えて移行したのだろうか?このポジションペーパーでは、特にグラフ表現学習を初心者に教える際に、この用語を使うことの危険性について論じる。
グラフ上で計算したい関心のある関数は、あらゆる可能性において、ペアワイズメッセージパッシング(ペアワイズメッセージパッシング)を使って表現することができます。
生産的な議論を始めるために、私は"beyond message passing"をもっと控えめな"augmented message passing"に置き換えることを提案します。
関連論文リスト
- Towards Dynamic Message Passing on Graphs [104.06474765596687]
グラフニューラルネットワーク(GNN)のための新しい動的メッセージパッシング機構を提案する。
グラフノードと学習可能な擬似ノードを、測定可能な空間関係を持つ共通空間に投影する。
ノードが空間内を移動すると、その進化する関係は動的メッセージパッシングプロセスのための柔軟な経路構築を促進する。
論文 参考訳(メタデータ) (2024-10-31T07:20:40Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - Half-Hop: A graph upsampling approach for slowing down message passing [31.26080679115766]
メッセージパッシングニューラルネットワークにおける学習を改善するためのフレームワークを提案する。
我々のアプローチは基本的に、各エッジに"スローノード"を追加することで、元のグラフのエッジをサンプリングする。
提案手法は入力グラフのみを修正し,既存のモデルでプラグイン・アンド・プレイしやすくする。
論文 参考訳(メタデータ) (2023-08-17T22:24:15Z) - Framelet Message Passing [2.479720095773358]
フレームレットメッセージパッシング(Framelet Message Passing)と呼ばれる,マルチスケールのフレームレット変換に基づく新しいメッセージパッシングを提案する。
ノードメッセージ更新時に複数のホップから隣ノードのフレームレット表現を統合する。
また,ニューラルODEソルバを用いた連続メッセージパッシングを提案する。
論文 参考訳(メタデータ) (2023-02-28T17:56:19Z) - Towards Training GNNs using Explanation Directed Message Passing [4.014524824655107]
我々は、GNNのための新しい説明指向ニューラルメッセージパッシングフレームワークEXPASS(EXplainable message PASSing)を紹介する。
ディリクレエネルギーの層損失を緩やかにすることで,EXPASSはGNNの過度なスムース化問題を緩和することを示した。
実験の結果,EXPASSを用いて学習したグラフ埋め込みにより予測性能が向上し,GNNの過度な問題を軽減することがわかった。
論文 参考訳(メタデータ) (2022-11-30T04:31:26Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Expander Graph Propagation [0.0]
本稿では,拡張グラフ上での情報伝達に基づくエレガントなアプローチを提案する。
EGPは、セットアップに最小限の労力を要しながら、上記の懸念に対処できることを示します。
我々の分析は、GNNの過剰な監視に対処する、スケーラブルな方法の新たなクラスへの道を開くものだと信じています。
論文 参考訳(メタデータ) (2022-10-06T15:36:37Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。