論文の概要: Structure-Aware Group Discrimination with Adaptive-View Graph Encoder: A
Fast Graph Contrastive Learning Framework
- arxiv url: http://arxiv.org/abs/2303.05231v1
- Date: Thu, 9 Mar 2023 13:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 14:49:24.364293
- Title: Structure-Aware Group Discrimination with Adaptive-View Graph Encoder: A
Fast Graph Contrastive Learning Framework
- Title(参考訳): Adaptive-View Graph Encoderを用いた構造認識グループ識別:高速グラフコントラスト学習フレームワーク
- Authors: Zhenshuo Zhang, Yun Zhu, Haizhou Shi, Siliang Tang
- Abstract要約: 本稿では、フォワードパスを高速化するために、限られた数のメッセージパスを持つ適応ビューグラフニューラルエンコーダ(AVGE)を提案する。
提案するフレームワークにより、ダウンストリームタスクのパフォーマンスを損なうことなく、大規模データセットのトレーニングと推論コストを、かなりのマージン(250倍高速な推論時間)で抑えることができる。
- 参考スコア(独自算出の注目度): 18.744939223003673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Albeit having gained significant progress lately, large-scale graph
representation learning remains expensive to train and deploy for two main
reasons: (i) the repetitive computation of multi-hop message passing and
non-linearity in graph neural networks (GNNs); (ii) the computational cost of
complex pairwise contrastive learning loss. Two main contributions are made in
this paper targeting this twofold challenge: we first propose an adaptive-view
graph neural encoder (AVGE) with a limited number of message passing to
accelerate the forward pass computation, and then we propose a structure-aware
group discrimination (SAGD) loss in our framework which avoids inefficient
pairwise loss computing in most common GCL and improves the performance of the
simple group discrimination. By the framework proposed, we manage to bring down
the training and inference cost on various large-scale datasets by a
significant margin (250x faster inference time) without loss of the
downstream-task performance.
- Abstract(参考訳): 最近は大きな進歩を遂げているが、大規模なグラフ表現学習は2つの主な理由から、トレーニングとデプロイに費用がかかる。
(i)グラフニューラルネットワーク(gnns)における多重ホップメッセージの繰り返し計算と非線形性
(II) 複雑な対角学習損失の計算コスト。
まず,フォワードパス計算を高速化するために,限られた数のメッセージパッシングを持つ適応ビューグラフニューラルネットワークエンコーダ(avge)を提案し,その後,一般的なgclにおける非効率なペアワイズ損失計算を回避し,単純なグループ識別の性能を向上させる,このフレームワークにおける構造認識型グループ識別(sagd)損失を提案する。
提案するフレームワークにより、ダウンストリームタスクのパフォーマンスを損なうことなく、さまざまな大規模データセットのトレーニングと推論コストをかなりのマージン(250倍の高速化)で削減することができる。
関連論文リスト
- MassiveGNN: Efficient Training via Prefetching for Massively Connected Distributed Graphs [11.026326555186333]
本稿では,現在最先端のAmazon DistDGL分散GNNフレームワーク上に,パラメータ化された連続プリフェッチと消去方式を提案する。
NERSC(National Energy Research Scientific Computing Center)のPerlmutterスーパーコンピュータでは、エンドツーエンドのトレーニング性能が15~40%向上している。
論文 参考訳(メタデータ) (2024-10-30T05:10:38Z) - MTLSO: A Multi-Task Learning Approach for Logic Synthesis Optimization [19.13500546022262]
MTLSOは論理合成最適化のためのマルチタスク学習手法である。
一次回帰タスクと並行して,二元多ラベルグラフ分類の補助タスクを導入する。
また、階層的なグラフ表現学習戦略を用いて、表現力のあるグラフレベルの表現を学習するためのモデルの能力を向上させる。
論文 参考訳(メタデータ) (2024-09-09T21:20:36Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - gcDLSeg: Integrating Graph-cut into Deep Learning for Binary Semantic
Segmentation [14.643505343450897]
エンドツーエンド学習のためのディープラーニングネットワークにグラフカットアプローチを統合することを提案する。
推論フェーズでは、最適化画像の特徴に基づいて定義されたグラフカットエネルギーに対して、大域的最適セグメンテーションが達成される。
論文 参考訳(メタデータ) (2023-12-07T21:43:43Z) - PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Simple Contrastive Graph Clustering [41.396185271303956]
既存の手法を改善するための単純なコントラストグラフクラスタリング(SCGC)アルゴリズムを提案する。
我々のアルゴリズムは、最近のコントラストの高いディープクラスタリング競合よりも、平均して7倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-05-11T06:45:19Z) - Graph Reinforcement Learning for Radio Resource Allocation [13.290246410488727]
我々は,無線通信における多くの問題に固有の2種類のリレーショナル先行性を活用するために,グラフ強化学習を利用する。
グラフ強化学習フレームワークを体系的に設計するために,まず状態行列を状態グラフに変換する方法を提案する。
次に,所望の置換特性を満たすグラフニューラルネットワークの汎用手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T08:02:54Z) - DANCE: DAta-Network Co-optimization for Efficient Segmentation Model
Training and Inference [85.02494022662505]
DANCEは、効率的なセグメンテーションモデルのトレーニングと推論のための自動データネットワーク協調最適化である。
入力イメージを適応的にダウンサンプル/ドロップする自動データスライミングを統合し、画像の空間的複雑さによって導かれるトレーニング損失に対するそれに対応するコントリビューションを制御する。
実験と非難研究により、DANCEは効率的なセグメンテーションに向けて「オールウィン」を達成できることを示した。
論文 参考訳(メタデータ) (2021-07-16T04:58:58Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。