論文の概要: The quest for the GRAph Level autoEncoder (GRALE)
- arxiv url: http://arxiv.org/abs/2505.22109v1
- Date: Wed, 28 May 2025 08:37:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.502897
- Title: The quest for the GRAph Level autoEncoder (GRALE)
- Title(参考訳): GRAph Level AutoEncoder (GRALE) の探索
- Authors: Paul Krzakala, Gabriel Melo, Charlotte Laclau, Florence d'Alché-Buc, Rémi Flamary,
- Abstract要約: GRALEは、様々なサイズのグラフを共有埋め込み空間にエンコードし、デコードする新しいグラフオートエンコーダである。
シミュレーションおよび分子データに関する数値実験において、GRALEは、広範囲の下流タスクに適用可能な、非常に一般的な事前学習を可能にしていることを示す。
- 参考スコア(独自算出の注目度): 14.343226956164782
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although graph-based learning has attracted a lot of attention, graph representation learning is still a challenging task whose resolution may impact key application fields such as chemistry or biology. To this end, we introduce GRALE, a novel graph autoencoder that encodes and decodes graphs of varying sizes into a shared embedding space. GRALE is trained using an Optimal Transport-inspired loss that compares the original and reconstructed graphs and leverages a differentiable node matching module, which is trained jointly with the encoder and decoder. The proposed attention-based architecture relies on Evoformer, the core component of AlphaFold, which we extend to support both graph encoding and decoding. We show, in numerical experiments on simulated and molecular data, that GRALE enables a highly general form of pre-training, applicable to a wide range of downstream tasks, from classification and regression to more complex tasks such as graph interpolation, editing, matching, and prediction.
- Abstract(参考訳): グラフベースの学習は多くの注目を集めているが、グラフ表現学習は依然として難しい課題であり、その解決は化学や生物学といった主要な応用分野に影響を及ぼす可能性がある。
この目的のために、GRALEというグラフオートエンコーダを導入し、様々なサイズのグラフを共有埋め込み空間にエンコードし、デコードする。
GRALEは、オリジナルのグラフと再構成されたグラフを比較して、エンコーダとデコーダと共同でトレーニングされる差別化可能なノードマッチングモジュールを活用する、最適なトランスポートにインスパイアされた損失を使用してトレーニングされている。
提案アーキテクチャは,AlphaFoldのコアコンポーネントであるEvoformerに依存している。
シミュレーションおよび分子データに関する数値実験において、GRALEは、分類や回帰から、グラフ補間、編集、マッチング、予測といったより複雑なタスクまで、幅広い下流タスクに適用可能な、非常に一般的な事前学習を可能にしていることを示す。
関連論文リスト
- Hierarchical Vector Quantized Graph Autoencoder with Annealing-Based Code Selection [13.731120424653705]
Vector Quantized Variational Autoencoder (VQ-VAE) はコンピュータビジョンなどの分野で広く使われている強力なオートエンコーダである。
本稿では,グラフオートエンコーダの文脈におけるベクトル量子化の実証分析を行う。
グラフデータに適用する場合,ベクトル量子化に関連する2つの重要な課題,すなわち,コードブックの未利用化とコードブック空間の分散を識別する。
論文 参考訳(メタデータ) (2025-04-17T07:43:52Z) - Auto-encoding Molecules: Graph-Matching Capabilities Matter [0.0]
変分オートエンコーダ(VAE)の学習行動と生成能力に及ぼすグラフマッチング精度の影響を示す。
本稿では,グラフニューラルネットワークデコーダの代替として,トランスフォーマを用いたメッセージパッシンググラフデコーダを提案する。
本稿では,グラフマッチングの精度が学習行動に重大な影響を与え,デノボグラフ生成に不可欠であることを示す。
論文 参考訳(メタデータ) (2025-03-01T10:00:37Z) - What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - Learning Network Representations with Disentangled Graph Auto-Encoder [1.671868610555776]
DGA(Disentangled Graph Auto-Encoder)とDVGA(Disentangled Variational Graph Auto-Encoder)を導入する。
DGAは、エンコーダとして機能するマルチチャネルメッセージパッシング層を備えた畳み込みネットワークである。
DVGAは非交叉表現の特徴を考慮に入れた因子的デコーダである。
論文 参考訳(メタデータ) (2024-02-02T04:52:52Z) - GiGaMAE: Generalizable Graph Masked Autoencoder via Collaborative Latent
Space Reconstruction [76.35904458027694]
マスク付きオートエンコーダモデルは、グラフデータに対する優れた一般化能力に欠ける。
本稿では,GiGaMAEと呼ばれる新しいグラフマスマスキングオートエンコーダフレームワークを提案する。
私たちの結果は、グラフ構造化データに基づく基礎モデルの設計に光を当てます。
論文 参考訳(メタデータ) (2023-08-18T16:30:51Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - Graph-Aware Transformer: Is Attention All Graphs Need? [5.240000443825077]
GRaph-Aware Transformer (GRAT)はTransformerベースの最初のモデルであり、グラフ全体をエンドツーエンドでエンコードしデコードすることができる。
GRATはQM9ベンチマークで4つの回帰タスクに対する最先端のパフォーマンスを含む非常に有望な結果を示している。
論文 参考訳(メタデータ) (2020-06-09T12:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。