論文の概要: GIMM: InfoMin-Max for Automated Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2305.17437v1
- Date: Sat, 27 May 2023 10:24:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 19:15:13.791686
- Title: GIMM: InfoMin-Max for Automated Graph Contrastive Learning
- Title(参考訳): GIMM: 自動グラフコントラスト学習のためのInfoMin-Max
- Authors: Xin Xiong (1), Furao Shen (1), Xiangyu Wang (1), Jian Zhao (2) ((1)
School of Artificial Intelligence, Nanjing University, (2) School of
Electronic Science and Engineering, Nanjing University)
- Abstract要約: グラフコントラスト学習(GCL)は教師なしグラフ表現学習において大きな可能性を示す。
自動化されたデータ拡張を伴う多くのGCL手法は、不十分な情報のリスクに直面している。
自動グラフコントラスト学習(GIMM)のためのInfoMin-Maxを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph contrastive learning (GCL) shows great potential in unsupervised graph
representation learning. Data augmentation plays a vital role in GCL, and its
optimal choice heavily depends on the downstream task. Many GCL methods with
automated data augmentation face the risk of insufficient information as they
fail to preserve the essential information necessary for the downstream task.
To solve this problem, we propose InfoMin-Max for automated Graph contrastive
learning (GIMM), which prevents GCL from encoding redundant information and
losing essential information. GIMM consists of two major modules: (1) automated
graph view generator, which acquires the approximation of InfoMin's optimal
views through adversarial training without requiring task-relevant information;
(2) view comparison, which learns an excellent encoder by applying InfoMax to
view representations. To the best of our knowledge, GIMM is the first method
that combines the InfoMin and InfoMax principles in GCL. Besides, GIMM
introduces randomness to augmentation, thus stabilizing the model against
perturbations. Extensive experiments on unsupervised and semi-supervised
learning for node and graph classification demonstrate the superiority of our
GIMM over state-of-the-art GCL methods with automated and manual data
augmentation.
- Abstract(参考訳): グラフコントラスト学習(GCL)は教師なしグラフ表現学習において大きな可能性を示す。
データ拡張はGCLにおいて重要な役割を担い、最適な選択は下流のタスクに大きく依存する。
自動データ拡張を伴う多くのgcl手法は、下流タスクに必要な必須情報を保存できないため、不十分な情報のリスクに直面している。
そこで本研究では,gclが冗長な情報をエンコードし,本質的な情報を失うことを防止し,グラフコントラスト学習(gimm)のためのインフォミンマックスを提案する。
GIMM は,(1) タスク関連情報を必要とせずに InfoMin の最適ビューの近似を取得する自動グラフビュー生成器,(2) ビュー比較,(2) ビュー表現に InfoMax を適用して優れたエンコーダを学習するビュー比較という2つの主要なモジュールから構成される。
我々の知る限りでは、GIMMはGCLにおけるInfoMinとInfoMaxの原則を組み合わせた最初の方法です。
さらに、GIMMは乱れを増大させ、摂動に対してモデルを安定化させる。
ノードおよびグラフ分類のための教師なしおよび半教師付き学習に関する広範囲な実験は、自動および手動データ拡張による最先端GCL法よりもGIMMの方が優れていることを示す。
関連論文リスト
- Beyond Redundancy: Information-aware Unsupervised Multiplex Graph
Structure Learning [12.138893216674457]
Unsupervised Multiplex Graph Learning (UMGL) は、手動ラベリングなしで様々なエッジタイプのノード表現を学習することを目的としている。
本稿では,複数のグラフから融合グラフを教師なしで学習する,より現実的で困難なタスクに焦点を当てる。
具体的には,提案する情報対応Unsupervised Multiplex Graph Fusion framework (InfoMGF) は,無関係ノイズを除去するためにグラフ構造を改良する。
論文 参考訳(メタデータ) (2024-09-25T22:00:26Z) - Graph Augmentation for Recommendation [30.77695833436189]
コントラスト学習によるグラフ強化はレコメンデーションシステム分野において大きな注目を集めている。
本稿では,自己教師付き信号を生成し,レコメンダシステムを強化したGraphAugというフレームワークを提案する。
GraphAugフレームワークはグラフ情報ボトルネック(GIB)の正規化拡張パラダイムを取り入れており、情報的自己超越情報を自動で抽出する。
論文 参考訳(メタデータ) (2024-03-25T11:47:53Z) - Adversarial Learning Data Augmentation for Graph Contrastive Learning in
Recommendation [56.10351068286499]
グラフコントラスト学習のための学習可能なデータ拡張法(LDA-GCL)を提案する。
提案手法は,InfoMin と InfoMax の原則に従うデータ強化学習とグラフコントラスト学習を含む。
本手法は,データ拡張とユーザやアイテムの効果的な表現を学習するために,対向損失関数を最適化する。
論文 参考訳(メタデータ) (2023-02-05T06:55:51Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Student Collaboration Improves Self-Supervised Learning: Dual-Loss
Adaptive Masked Autoencoder for Brain Cell Image Analysis [0.0]
自己教師付き学習は、大量のバイオメディカルデータと限られたアノテーションで学ぶための実践的なソリューションである。
本研究は,情報理論の観点から構築した自己教師型Dual-Loss Adaptive Masked Autoencoder (DAMA) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-10T22:32:29Z) - Toward Enhanced Robustness in Unsupervised Graph Representation
Learning: A Graph Information Bottleneck Perspective [48.01303380298564]
我々はRobust Graph Information Bottleneck (RGIB) と呼ばれる新しい非バイアス頑健なUGRL手法を提案する。
我々のRGIBは、逆数グラフの逆数情報を排除しつつ、良性グラフの原情報を保存し、逆数摂動に対する頑健なノード表現を学習しようと試みている。
論文 参考訳(メタデータ) (2022-01-21T06:26:50Z) - MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs [55.66953093401889]
Masked Graph Autoencoder (MGAE) フレームワークは、グラフ構造データの効果的な学習を行う。
自己指導型学習から洞察を得て、私たちはランダムに大量のエッジを隠蔽し、トレーニング中に欠落したエッジを再構築しようとします。
論文 参考訳(メタデータ) (2022-01-07T16:48:07Z) - Towards Graph Self-Supervised Learning with Contrastive Adjusted Zooming [48.99614465020678]
本稿では,グラフコントラスト適応ズームによる自己教師付きグラフ表現学習アルゴリズムを提案する。
このメカニズムにより、G-Zoomはグラフから複数のスケールから自己超越信号を探索して抽出することができる。
我々は,実世界のデータセットに関する広範な実験を行い,提案したモデルが常に最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-20T22:45:53Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。