論文の概要: On the Equivalence of Graph Convolution and Mixup
- arxiv url: http://arxiv.org/abs/2310.00183v2
- Date: Thu, 12 Sep 2024 03:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-13 22:36:48.196214
- Title: On the Equivalence of Graph Convolution and Mixup
- Title(参考訳): グラフの畳み込みと混合の等価性について
- Authors: Xiaotian Han, Hanqing Zeng, Yu Chen, Shaoliang Nie, Jingzhou Liu, Kanika Narang, Zahra Shakeri, Karthik Abinav Sankararaman, Song Jiang, Madian Khabsa, Qifan Wang, Xia Hu,
- Abstract要約: 本稿では,グラフ畳み込みと混合手法の関係について検討する。
2つの穏やかな条件の下では、グラフの畳み込みはMixupの特別な形式と見なすことができる。
グラフ畳み込みネットワーク(GCN)と単純化グラフ畳み込み(SGC)をミックスアップの形で表現できることを証明し、数学的にこの等価性を確立する。
- 参考スコア(独自算出の注目度): 70.0121263465133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the relationship between graph convolution and Mixup techniques. Graph convolution in a graph neural network involves aggregating features from neighboring samples to learn representative features for a specific node or sample. On the other hand, Mixup is a data augmentation technique that generates new examples by averaging features and one-hot labels from multiple samples. One commonality between these techniques is their utilization of information from multiple samples to derive feature representation. This study aims to explore whether a connection exists between these two approaches. Our investigation reveals that, under two mild conditions, graph convolution can be viewed as a specialized form of Mixup that is applied during both the training and testing phases. The two conditions are: 1) \textit{Homophily Relabel} - assigning the target node's label to all its neighbors, and 2) \textit{Test-Time Mixup} - Mixup the feature during the test time. We establish this equivalence mathematically by demonstrating that graph convolution networks (GCN) and simplified graph convolution (SGC) can be expressed as a form of Mixup. We also empirically verify the equivalence by training an MLP using the two conditions to achieve comparable performance.
- Abstract(参考訳): 本稿では,グラフ畳み込みと混合手法の関係について検討する。
グラフニューラルネットワークのグラフ畳み込みは、特定のノードやサンプルの代表的な特徴を学ぶために、近隣のサンプルから機能を集約する。
一方、Mixupはデータ拡張技術であり、複数のサンプルから平均的な機能と1ホットラベルを抽出することで、新しいサンプルを生成する。
これらの手法の共通点の1つは、特徴表現を導出するための複数のサンプルからの情報の利用である。
本研究は, これら2つのアプローチの関連性を検討することを目的とする。
調査の結果,2つの温和な条件下では,グラフの畳み込みは,学習段階と試験段階の両方で適用可能な,Mixupの特殊な形態であることがわかった。
条件は以下の2つ。
1) \textit{Homophily Relabel} - ターゲットノードのラベルを隣人全員に割り当て、
2) \textit{Test-Time Mixup} - テスト時間中に機能をミックスする。
グラフ畳み込みネットワーク(GCN)と単純化グラフ畳み込み(SGC)をミックスアップの形で表現できることを証明し、数学的にこの等価性を確立する。
また, 2つの条件を用いてMPPを訓練し, 等価性を実証的に検証した。
関連論文リスト
- GDM: Dual Mixup for Graph Classification with Limited Supervision [27.8982897698616]
グラフニューラルネットワーク(GNN)は、グラフ分類タスクにおいて優れたパフォーマンスを得るために、多数のラベル付きグラフサンプルを必要とする。
ラベル付きグラフサンプルの減少に伴い, GNNの性能は著しく低下する。
本稿では,新しいラベル付きグラフサンプルを生成するための混合グラフ拡張法を提案する。
論文 参考訳(メタデータ) (2023-09-18T20:17:10Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Graph Mixup with Soft Alignments [49.61520432554505]
本研究では,画像上での使用に成功しているミキサアップによるグラフデータの増大について検討する。
ソフトアライメントによるグラフ分類のための簡易かつ効果的な混合手法であるS-Mixupを提案する。
論文 参考訳(メタデータ) (2023-06-11T22:04:28Z) - Beyond Homophily: Reconstructing Structure for Graph-agnostic Clustering [15.764819403555512]
グラフを好適なGNNモデルが見つかる前に、まずホモ親和性あるいはヘテロ親和性として識別することは不可能である。
本稿では,グラフ再構成,混合フィルタ,二重グラフクラスタリングネットワークという3つの重要な要素を含むグラフクラスタリング手法を提案する。
我々の手法は異種グラフ上で他者を支配している。
論文 参考訳(メタデータ) (2023-05-03T01:49:01Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - CGMN: A Contrastive Graph Matching Network for Self-Supervised Graph
Similarity Learning [65.1042892570989]
自己教師付きグラフ類似性学習のためのコントラストグラフマッチングネットワーク(CGMN)を提案する。
我々は,効率的なノード表現学習のために,クロスビューインタラクションとクロスグラフインタラクションという2つの戦略を用いる。
我々はノード表現をグラフ類似性計算のためのプール演算によりグラフレベル表現に変換する。
論文 参考訳(メタデータ) (2022-05-30T13:20:26Z) - Effects of Graph Convolutions in Deep Networks [8.937905773981702]
多層ネットワークにおけるグラフ畳み込みの効果に関する厳密な理論的理解を示す。
単一のグラフ畳み込みは、多層ネットワークがデータを分類できる手段間の距離のレギュレーションを拡大することを示す。
ネットワーク層間の異なる組み合わせに配置されたグラフ畳み込みの性能に関する理論的および実証的な知見を提供する。
論文 参考訳(メタデータ) (2022-04-20T08:24:43Z) - G-Mixup: Graph Data Augmentation for Graph Classification [55.63157775049443]
Mixupは、2つのランダムサンプル間の特徴とラベルを補間することにより、ニューラルネットワークの一般化とロバスト性を改善する上で優位性を示している。
グラフ分類のためのグラフを増補するために$mathcalG$-Mixupを提案し、グラフの異なるクラスのジェネレータ(すなわちグラフ)を補間する。
実験により、$mathcalG$-MixupはGNNの一般化とロバスト性を大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-02-15T04:09:44Z) - Geometric graphs from data to aid classification tasks with graph
convolutional networks [0.0]
データセットに付加的な関係情報が得られなくても,特徴量自体から幾何グラフを構築して分類を改善することができることを示す。
分類精度の向上は、比較的低いエッジ密度のサンプル類似性をキャプチャするグラフによって最大化される。
論文 参考訳(メタデータ) (2020-05-08T15:00:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。