論文の概要: Self-Contrastive Graph Diffusion Network
- arxiv url: http://arxiv.org/abs/2307.14613v1
- Date: Thu, 27 Jul 2023 04:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 15:49:24.969163
- Title: Self-Contrastive Graph Diffusion Network
- Title(参考訳): 自己矛盾グラフ拡散ネットワーク
- Authors: Yixian Ma, Kun Zhan
- Abstract要約: 我々は、自己コントラストグラフ拡散ネットワーク(SCGDN)と呼ばれる新しいフレームワークを提案する。
私たちのフレームワークは、注意モジュール(AttM)と拡散モジュール(DiFM)の2つの主要コンポーネントで構成されています。
既存の方法論とは異なり、SCGDNは「サンプリングバイアス」や意味的ドリフトを避ける拡張自由なアプローチである。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Augmentation techniques and sampling strategies are crucial in contrastive
learning, but in most existing works, augmentation techniques require careful
design, and their sampling strategies can only capture a small amount of
intrinsic supervision information. Additionally, the existing methods require
complex designs to obtain two different representations of the data. To
overcome these limitations, we propose a novel framework called the
Self-Contrastive Graph Diffusion Network (SCGDN). Our framework consists of two
main components: the Attentional Module (AttM) and the Diffusion Module (DiFM).
AttM aggregates higher-order structure and feature information to get an
excellent embedding, while DiFM balances the state of each node in the graph
through Laplacian diffusion learning and allows the cooperative evolution of
adjacency and feature information in the graph. Unlike existing methodologies,
SCGDN is an augmentation-free approach that avoids "sampling bias" and semantic
drift, without the need for pre-training. We conduct a high-quality sampling of
samples based on structure and feature information. If two nodes are neighbors,
they are considered positive samples of each other. If two disconnected nodes
are also unrelated on $k$NN graph, they are considered negative samples for
each other. The contrastive objective reasonably uses our proposed sampling
strategies, and the redundancy reduction term minimizes redundant information
in the embedding and can well retain more discriminative information. In this
novel framework, the graph self-contrastive learning paradigm gives expression
to a powerful force. SCGDN effectively balances between preserving high-order
structure information and avoiding overfitting. The results manifest that SCGDN
can consistently generate outperformance over both the contrastive methods and
the classical methods.
- Abstract(参考訳): 強化手法とサンプリング戦略は、対照的な学習において重要であるが、既存のほとんどの研究では、強化手法は慎重に設計する必要がある。
さらに、既存の手法ではデータの2つの異なる表現を得るために複雑な設計が必要である。
このような制約を克服するため,SCGDN(Self-Contrastive Graph Diffusion Network)と呼ばれる新しいフレームワークを提案する。
このフレームワークはattmental module (attm) と diffusion module (difm) の2つの主要コンポーネントから構成されている。
attmは優れた埋め込みを得るために高次構造と特徴情報を集約し、difmはラプラシアン拡散学習を通じてグラフの各ノードの状態のバランスをとり、グラフ内の隣接性と特徴情報の協調進化を可能にする。
既存の方法論とは異なり、scgdnはプレトレーニングを必要とせず、"サンプリングバイアス"とセマンティックドリフトを回避する拡張フリーなアプローチである。
構造や特徴情報に基づいて,高品質なサンプルサンプリングを行う。
2つのノードが隣り合う場合、それらは互いに正のサンプルと見なされる。
2つの非連結ノードが$k$NNグラフ上でも無関係であれば、互いに負のサンプルと見なされる。
比較対象は,提案するサンプリング戦略を合理的に活用し,冗長性低減期間は埋め込み内の冗長な情報を最小化し,より識別的な情報を保持できる。
この新しい枠組みでは、グラフ自己結合学習パラダイムは表現に強力な力を与える。
SCGDNは、高次構造情報の保存とオーバーフィッティングの回避を効果的にバランスする。
その結果、SCGDNはコントラスト法と古典法の両方に対して、一貫して性能を向上できることがわかった。
関連論文リスト
- Generative-Enhanced Heterogeneous Graph Contrastive Learning [11.118517297006894]
異種グラフ(HG)は、実世界の複雑な関係をマルチタイプのノードとエッジによって効果的にモデル化することができる。
近年、自己教師型学習にインスパイアされたHGNN(Heterogeneous Graphs Neural Networks)は、下流タスクにデータ拡張とコントラッシブ・ディミネータを活用することで大きな可能性を示している。
本稿では,GHGCL(Generative-Enhanced Heterogeneous Graph Contrastive Learning)を提案する。
論文 参考訳(メタデータ) (2024-04-03T15:31:18Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Hierarchical Contrastive Learning Enhanced Heterogeneous Graph Neural
Network [59.860534520941485]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、異種情報ネットワーク(HIN)を扱う能力に優れていた。
近年,自己指導型学習は最もエキサイティングな学習パラダイムの1つとなり,ラベルがない場合に大きな可能性を示す。
本稿では,自己教師型HGNNの問題点を考察し,HGNNのための新しいコントラスト学習機構であるHeCoを提案する。
論文 参考訳(メタデータ) (2023-04-24T16:17:21Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Simple Contrastive Graph Clustering [41.396185271303956]
既存の手法を改善するための単純なコントラストグラフクラスタリング(SCGC)アルゴリズムを提案する。
我々のアルゴリズムは、最近のコントラストの高いディープクラスタリング競合よりも、平均して7倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-05-11T06:45:19Z) - Deep Graph Clustering via Dual Correlation Reduction [37.973072977988494]
本稿では,Dual correlation Reduction Network (DCRN) と呼ばれる自己教師型ディープグラフクラスタリング手法を提案する。
提案手法では,まず,サンプルを符号化するシアムネットワークを設計する。次に,クロスビューサンプル相関行列とクロスビュー特徴相関行列をそれぞれ2つのアイデンティティ行列に近似させることで,二重レベルの情報相関を小さくする。
本稿では,GCNの過度なスムース化による表現の崩壊を軽減するために,ネットワークが長距離情報を得るための伝搬正則化項を導入する。
論文 参考訳(メタデータ) (2021-12-29T04:05:38Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Graph Contrastive Learning with Adaptive Augmentation [23.37786673825192]
本稿では,適応的拡張を用いた新しいグラフコントラスト表現学習法を提案する。
具体的には,ノードの集中度に基づく拡張スキームを設計し,重要な結合構造を明らかにする。
提案手法は,既存の最先端のベースラインを一貫して上回り,教師付きベースラインを超えている。
論文 参考訳(メタデータ) (2020-10-27T15:12:21Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - Attentive WaveBlock: Complementarity-enhanced Mutual Networks for
Unsupervised Domain Adaptation in Person Re-identification and Beyond [97.25179345878443]
本稿では,新しい軽量モジュールであるAttentive WaveBlock (AWB)を提案する。
AWBは相互学習の二重ネットワークに統合され、相互学習の相補性を高め、擬似ラベルのノイズをさらに抑えることができる。
実験により, 提案手法は, 複数のUDA人物再識別タスクを大幅に改善し, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-06-11T15:40:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。