論文の概要: Auto-encoding Molecules: Graph-Matching Capabilities Matter
- arxiv url: http://arxiv.org/abs/2503.00426v1
- Date: Sat, 01 Mar 2025 10:00:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:23:10.441785
- Title: Auto-encoding Molecules: Graph-Matching Capabilities Matter
- Title(参考訳): 自動エンコード分子:グラフマッチング機能
- Authors: Magnus Cunow, Gerrit Großmann,
- Abstract要約: 変分オートエンコーダ(VAE)の学習行動と生成能力に及ぼすグラフマッチング精度の影響を示す。
本稿では,グラフニューラルネットワークデコーダの代替として,トランスフォーマを用いたメッセージパッシンググラフデコーダを提案する。
本稿では,グラフマッチングの精度が学習行動に重大な影響を与え,デノボグラフ生成に不可欠であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Autoencoders are effective deep learning models that can function as generative models and learn latent representations for downstream tasks. The use of graph autoencoders - with both encoder and decoder implemented as message passing networks - is intriguing due to their ability to generate permutation-invariant graph representations. However, this approach faces difficulties because decoding a graph structure from a single vector is challenging, and comparing input and output graphs requires an effective permutation-invariant similarity measure. As a result, many studies rely on approximate methods. In this work, we explore the effect of graph matching precision on the training behavior and generation capabilities of a Variational Autoencoder (VAE). Our contribution is two-fold: (1) we propose a transformer-based message passing graph decoder as an alternative to a graph neural network decoder, that is more robust and expressive by leveraging global attention mechanisms. (2) We show that the precision of graph matching has significant impact on training behavior and is essential for effective de novo (molecular) graph generation. Code is available at https://github.com/mcunow/graph-matching
- Abstract(参考訳): オートエンコーダは、生成モデルとして機能し、下流タスクの潜在表現を学ぶことができる効果的なディープラーニングモデルである。
グラフオートエンコーダ(エンコーダとデコーダの両方がメッセージパッシングネットワークとして実装されている)の使用は、置換不変グラフ表現を生成する能力によって興味深い。
しかし、単一のベクトルからグラフ構造を復号することは困難であり、入力グラフと出力グラフを比較するには効果的な置換不変類似度測定が必要であるため、このアプローチは困難に直面する。
その結果、多くの研究は近似手法に依存している。
本研究では,変分オートエンコーダ(VAE)の学習行動と生成能力に及ぼすグラフマッチング精度の影響について検討する。
1)グローバルアテンション機構を活用することにより,より堅牢で表現性の高いグラフニューラルネットワークデコーダの代替として,トランスフォーマーベースのメッセージパッシンググラフデコーダを提案する。
2) グラフマッチングの精度はトレーニング行動に大きな影響を与え, 有効デノボ(分子)グラフ生成に不可欠であることを示す。
コードはhttps://github.com/mcunow/graph-matchingで入手できる。
関連論文リスト
- Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - RGCVAE: Relational Graph Conditioned Variational Autoencoder for
Molecule Design [70.59828655929194]
ディープグラフ変分自動エンコーダは、この問題に対処可能な、最も強力な機械学習ツールの1つである。
i)新しい強力なグラフ同型ネットワークを利用した符号化ネットワーク,(ii)新しい確率的復号化コンポーネントを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:23:48Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Gransformer: Transformer-based Graph Generation [14.161975556325796]
Gransformerは、グラフを生成するためのTransformerに基づくアルゴリズムである。
我々は、与えられたグラフの構造情報を利用するためにTransformerエンコーダを変更する。
また、ノードペア間のグラフベースの親しみ度尺度も導入する。
論文 参考訳(メタデータ) (2022-03-25T14:05:12Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - AEGCN: An Autoencoder-Constrained Graph Convolutional Network [5.023274927781062]
本稿では,オートエンコーダ制約付きグラフ畳み込みネットワークと呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
このモデルのコアはグラフ上で直接動作する畳み込みネットワークであり、隠れた層はオートエンコーダによって制約される。
オートエンコーダの制約を追加することで,グラフ畳み込みネットワークの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-07-03T16:42:55Z) - Graph-Aware Transformer: Is Attention All Graphs Need? [5.240000443825077]
GRaph-Aware Transformer (GRAT)はTransformerベースの最初のモデルであり、グラフ全体をエンドツーエンドでエンコードしデコードすることができる。
GRATはQM9ベンチマークで4つの回帰タスクに対する最先端のパフォーマンスを含む非常に有望な結果を示している。
論文 参考訳(メタデータ) (2020-06-09T12:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。