論文の概要: Tired of Over-smoothing? Stress Graph Drawing Is All You Need!
- arxiv url: http://arxiv.org/abs/2211.10579v1
- Date: Sat, 19 Nov 2022 03:54:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 21:45:43.231501
- Title: Tired of Over-smoothing? Stress Graph Drawing Is All You Need!
- Title(参考訳): オーバースモーニングに飽きた?
ストレスグラフの描画は必要なだけ!
- Authors: Xue Li and Yuanzhi Cheng
- Abstract要約: ストレスグラフの描画は、グラフ内のメッセージの反復にユニークな視点を提供することができる。
オーバースムーシングを防ぐことなく、ディープモデルを構築する方法を示す。
- 参考スコア(独自算出の注目度): 4.426835206454162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In designing and applying graph neural networks, we often fall into some
optimization pitfalls, the most deceptive of which is that we can only build a
deep model by solving over-smoothing. The fundamental reason is that we do not
understand how graph neural networks work. Stress graph drawing can offer a
unique viewpoint to message iteration in the graph, such as the root of the
over-smoothing problem lies in the inability of graph models to maintain an
ideal distance between nodes. We further elucidate the trigger conditions of
over-smoothing and propose Stress Graph Neural Networks. By introducing the
attractive and repulsive message passing from stress iteration, we show how to
build a deep model without preventing over-smoothing, how to use repulsive
information, and how to optimize the current message-passing scheme to
approximate the full stress message propagation. By performing different tasks
on 23 datasets, we verified the effectiveness of our attractive and repulsive
models and the derived relationship between stress iteration and graph neural
networks. We believe that stress graph drawing will be a popular resource for
understanding and designing graph neural networks.
- Abstract(参考訳): グラフニューラルネットワークの設計と適用において、私たちはしばしば最適化の落とし穴に陥ります。
基本的な理由は、グラフニューラルネットワークの仕組みが理解されていないからです。
ストレスグラフの描画は、グラフ内のメッセージイテレーションに対するユニークな視点を提供することができる。例えば、過剰なスムーシング問題の根源は、ノード間の理想的な距離を維持するグラフモデルができないことである。
オーバースムーシングのトリガー条件をさらに解明し,ストレスグラフニューラルネットワークを提案する。
ストレス反復から引き起こされる魅力的なメッセージパッシングを導入することで、過剰なスムースを防止せずにディープモデルを構築する方法、反発情報の使用方法、そして、現在のメッセージパッシングスキームを最適化して全ストレスメッセージの伝搬を近似する方法を示す。
23個のデータセット上で異なるタスクを行うことで,本モデルの有効性とストレス反復とグラフニューラルネットワークの関係を検証した。
ストレスグラフの描画は、グラフニューラルネットワークの理解と設計に人気のあるリソースになると考えています。
関連論文リスト
- Graph Residual Noise Learner Network for Brain Connectivity Graph Prediction [1.9116784879310031]
接続指紋を描写した形態的脳グラフは、脳の非結合性のパターンを表わす上で最重要である。
本稿では,対象グラフをソースグラフから予測する最初のグラフ拡散モデルであるグラフ残留雑音学習ネットワーク(Grenol-Net)を提案する。
論文 参考訳(メタデータ) (2024-09-30T17:28:38Z) - CoRe-GD: A Hierarchical Framework for Scalable Graph Visualization with
GNNs [20.706469085872516]
我々は、ストレスの最適化を学習できるサブクワッドラティックを備えたスケーラブルなグラフニューラルネットワーク(GNN)ベースのグラフ描画フレームワークを導入する。
古典的応力最適化手法と強制指向レイアウトアルゴリズムに着想を得て,入力グラフの粗い階層を生成する。
ネットワーク内の情報伝達を強化するために,新しい位置変換手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T10:50:45Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - A Graph Neural Network with Negative Message Passing for Graph Coloring [12.501032566933178]
本稿では,グラフカラー化のためのグラフネットワークモデルを提案する。
我々は,より効果的な情報交換を行うために,提案したグラフニューラルネットワークに負のメッセージパッシングを導入する。
ノードの自己情報を考慮した新たな損失関数が提案され,学習プロセスが促進される。
論文 参考訳(メタデータ) (2023-01-26T15:08:42Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Graph Coarsening with Neural Networks [8.407217618651536]
本稿では、粗いアルゴリズムの品質を測定するためのフレームワークを提案し、目標に応じて、粗いグラフ上のLaplace演算子を慎重に選択する必要があることを示す。
粗いグラフに対する現在のエッジウェイト選択が準最適である可能性が示唆され、グラフニューラルネットワークを用いて重み付けマップをパラメータ化し、教師なし方法で粗い品質を改善するよう訓練する。
論文 参考訳(メタデータ) (2021-02-02T06:50:07Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。