論文の概要: On Generalization of Graph Autoencoders with Adversarial Training
- arxiv url: http://arxiv.org/abs/2107.02658v1
- Date: Tue, 6 Jul 2021 14:53:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 13:58:04.425755
- Title: On Generalization of Graph Autoencoders with Adversarial Training
- Title(参考訳): 逆行訓練によるグラフオートエンコーダの一般化について
- Authors: Tianjin huang, Yulong Pei, Vlado Menkovski and Mykola Pechenizkiy
- Abstract要約: 逆行訓練は、逆行性摂動に対するモデルの弾力性を高めるためのアプローチである。
2つの強力なノード埋め込み方式でL2とL1の対角訓練を定式化する。
我々は,L2とL1の両対向訓練がGAEとVGAEの一般化を促進することを実証した。
- 参考スコア(独自算出の注目度): 8.608288231153304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training is an approach for increasing model's resilience against
adversarial perturbations. Such approaches have been demonstrated to result in
models with feature representations that generalize better. However, limited
works have been done on adversarial training of models on graph data. In this
paper, we raise such a question { does adversarial training improve the
generalization of graph representations. We formulate L2 and L1 versions of
adversarial training in two powerful node embedding methods: graph autoencoder
(GAE) and variational graph autoencoder (VGAE). We conduct extensive
experiments on three main applications, i.e. link prediction, node clustering,
graph anomaly detection of GAE and VGAE, and demonstrate that both L2 and L1
adversarial training boost the generalization of GAE and VGAE.
- Abstract(参考訳): 逆行訓練は、逆行性摂動に対するモデルの弾力性を高めるためのアプローチである。
このようなアプローチは、より一般化した特徴表現を持つモデルをもたらすことが示されている。
しかし、グラフデータ上のモデルの敵対的トレーニングでは、限定的な研究がなされている。
本稿では, グラフ表現の一般化を, 敵対的学習により向上させるかという疑問を提起する。
本稿では,グラフオートエンコーダ (GAE) と変分グラフオートエンコーダ (VGAE) の2つの強力なノード埋め込み手法を用いて,L2 と L1 の逆学習を定式化する。
3つの主要な応用、すなわち、広範な実験を行う。
リンク予測,ノードクラスタリング,GAEとVGAEのグラフ異常検出,L2とL1の両逆トレーニングがGAEとVGAEの一般化を促進することを示す。
関連論文リスト
- Uncovering Capabilities of Model Pruning in Graph Contrastive Learning [0.0]
我々は、拡張ビューではなく、異なるモデルバージョンを対比することで、グラフのコントラスト学習の問題を再構築する。
教師なしおよび転送学習によるグラフ分類に関する様々なベンチマークにおいて,本手法を広範囲に検証する。
論文 参考訳(メタデータ) (2024-10-27T07:09:31Z) - Do We Really Need Graph Convolution During Training? Light Post-Training Graph-ODE for Efficient Recommendation [34.93725892725111]
トレーニングレコメンデータシステム(RecSys)におけるグラフ畳み込みネットワーク(GCNs)は、絶え間なく懸念されてきた。
本稿では,学習段階におけるグラフ畳み込みの必要性を批判的に考察する。
光後学習グラフ正規分方程式(LightGODE)という革新的な方法を導入する。
論文 参考訳(メタデータ) (2024-07-26T17:59:32Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Contributions to Representation Learning with Graph Autoencoders and
Applications to Music Recommendation [1.2691047660244335]
グラフオートエンコーダ(GAE)と変分グラフオートエンコーダ(VGAE)は、教師なしノード埋め込みの強力なグループとして登場した。
このPh.D.プロジェクトの初期には、GAEとVGAEのモデルも重要な制限に悩まされ、業界で採用されるのを防いだ。
我々はこれらのモデルを改善するためにいくつかの貢献を行い、グラフ表現を含む産業レベルの問題に対処するためにそれらの利用を促進することを目的としている。
論文 参考訳(メタデータ) (2022-05-29T13:14:53Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Dynamic Graph Representation Learning via Graph Transformer Networks [41.570839291138114]
動的グラフ変換器 (DGT) を用いた動的グラフ学習手法を提案する。
DGTは、グラフトポロジを効果的に学習し、暗黙のリンクをキャプチャするための時空間符号化を持つ。
DGTはいくつかの最先端のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-19T21:44:23Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Iterative Graph Self-Distillation [161.04351580382078]
我々は、IGSD(Iterative Graph Self-Distillation)と呼ばれる新しい教師なしグラフ学習パラダイムを提案する。
IGSDは、グラフ拡張による教師/学生の蒸留を反復的に行う。
我々は,教師なしと半教師なしの両方の設定において,さまざまなグラフデータセットに対して,有意かつ一貫したパフォーマンス向上を実現していることを示す。
論文 参考訳(メタデータ) (2020-10-23T18:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。