論文の概要: CHGNN: A Semi-Supervised Contrastive Hypergraph Learning Network
- arxiv url: http://arxiv.org/abs/2303.06213v2
- Date: Tue, 28 May 2024 16:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 04:46:21.516428
- Title: CHGNN: A Semi-Supervised Contrastive Hypergraph Learning Network
- Title(参考訳): CHGNN: 半スーパービジョンのコントラストハイパーグラフ学習ネットワーク
- Authors: Yumeng Song, Yu Gu, Tianyi Li, Jianzhong Qi, Zhenghao Liu, Christian S. Jensen, Ge Yu,
- Abstract要約: ハイパーグラフは、ソーシャルネットワークやバイオインフォマティクスといったアプリケーションで見られるデータオブジェクト間の高次関係をモデル化することができる。
ラベル付きおよびラベルなしデータから学習するために,自己教師付きコントラスト学習技術を利用したコントラスト型ハイパーグラフニューラルネットワークCHGNNを提案する。
9つの実データセットの実験結果から、CHGNNの有効性に関する洞察が得られる。
- 参考スコア(独自算出の注目度): 33.18119972779757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hypergraphs can model higher-order relationships among data objects that are found in applications such as social networks and bioinformatics. However, recent studies on hypergraph learning that extend graph convolutional networks to hypergraphs cannot learn effectively from features of unlabeled data. To such learning, we propose a contrastive hypergraph neural network, CHGNN, that exploits self-supervised contrastive learning techniques to learn from labeled and unlabeled data. First, CHGNN includes an adaptive hypergraph view generator that adopts an auto-augmentation strategy and learns a perturbed probability distribution of minimal sufficient views. Second, CHGNN encompasses an improved hypergraph encoder that considers hyperedge homogeneity to fuse information effectively. Third, CHGNN is equipped with a joint loss function that combines a similarity loss for the view generator, a node classification loss, and a hyperedge homogeneity loss to inject supervision signals. It also includes basic and cross-validation contrastive losses, associated with an enhanced contrastive loss training process. Experimental results on nine real datasets offer insight into the effectiveness of CHGNN, showing that it outperforms 13 competitors in terms of classification accuracy consistently.
- Abstract(参考訳): ハイパーグラフは、ソーシャルネットワークやバイオインフォマティクスなどのアプリケーションで見られるデータオブジェクト間の高次関係をモデル化することができる。
しかし、グラフ畳み込みネットワークをハイパーグラフに拡張するハイパーグラフ学習に関する最近の研究は、ラベルのないデータの特徴から効果的に学習することはできない。
このような学習のために,ラベル付きおよびラベルなしデータから学習するために,自己教師付きコントラスト学習技術を活用したコントラスト型ハイパーグラフニューラルネットワークCHGNNを提案する。
第一に、CHGNNは適応的なハイパーグラフビュー生成器を備えており、これは自動拡張戦略を採用し、最小限のビューの摂動確率分布を学習する。
第二に、CHGNNはハイパーエッジの均一性を考慮し、情報を効果的に融合する改良されたハイパーグラフエンコーダを含んでいる。
第3に、CHGNNは、ビュージェネレータの類似性損失とノード分類損失と、監督信号を注入するハイパーエッジ均質損失とを組み合わせた共同損失機能を備えている。
また、基本およびクロスバリデーションのコントラスト損失が含まれており、コントラスト損失トレーニングの強化に関係している。
9つの実データセットの実験結果から、CHGNNの有効性に関する洞察が得られる。
関連論文リスト
- Robust Subgraph Learning by Monitoring Early Training Representations [5.524804393257921]
グラフニューラルネットワーク(GNN)は、グラフ学習やノード分類タスクにおける卓越したパフォーマンスに対して、大きな注目を集めている。
敵攻撃、特に感受性のあるノードによる攻撃に対する脆弱性は、意思決定において課題となる。
本稿では,SHERD(Subgraph Learning Hale through Early Training Representation Distances)を導入し,グラフ入力の性能と対角的堅牢性に対処する。
論文 参考訳(メタデータ) (2024-03-14T22:25:37Z) - Loss-aware Curriculum Learning for Heterogeneous Graph Neural Networks [30.333265803394998]
異種グラフニューラルネットワーク(GNN)の性能向上のためのカリキュラム学習手法の適用について検討する。
データの品質をよりよく分類するために、データの全ノードの品質を測定するLTSと呼ばれる損失認識トレーニングスケジュールを設計する。
本研究は,複雑なグラフ構造データ解析のためのHGNNの能力向上のためのカリキュラム学習の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-29T05:44:41Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - CONVERT:Contrastive Graph Clustering with Reliable Augmentation [110.46658439733106]
信頼性オーグメンテーション(CONVERT)を用いたContrastiVe Graph ClustEringネットワークを提案する。
本手法では,データ拡張を可逆的パーターブ・リカバリネットワークにより処理する。
セマンティクスの信頼性をさらに保証するために、ネットワークを制約する新たなセマンティクス損失が提示される。
論文 参考訳(メタデータ) (2023-08-17T13:07:09Z) - DualHGNN: A Dual Hypergraph Neural Network for Semi-Supervised Node
Classification based on Multi-View Learning and Density Awareness [3.698434507617248]
グラフに基づく半教師付きノード分類は、研究価値と重要性の高い多くのアプリケーションにおいて最先端のアプローチであることが示されている。
本稿では、ハイパーグラフ構造学習とハイパーグラフ表現学習を同時に統合した新しいデュアル接続モデルであるデュアルハイパーグラフニューラルネットワーク(DualHGNN)を提案する。
論文 参考訳(メタデータ) (2023-06-07T07:40:04Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - Density-Aware Hyper-Graph Neural Networks for Graph-based
Semi-supervised Node Classification [3.698434507617248]
本稿では,密度認識型ハイパーグラフニューラルネットワーク(DA-HGNN)を提案する。
提案手法では,データ間の高次セマンティック相関を探索するためにハイパーグラフを提供し,高次接続関係を探索するために密度対応ハイパーグラフアテンションネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-27T13:43:14Z) - An Introduction to Robust Graph Convolutional Networks [71.68610791161355]
本論文では, 誤りのある単一ビューあるいは複数ビューのデータに対して, 新たなロバストグラフ畳み込みニューラルネットワークを提案する。
従来のグラフ畳み込みネットワークにAutoencodersを介して余分なレイヤを組み込むことで、典型的なエラーモデルを明示的に特徴付けおよび処理します。
論文 参考訳(メタデータ) (2021-03-27T04:47:59Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。