論文の概要: Graph Representation Learning with Diffusion Generative Models
- arxiv url: http://arxiv.org/abs/2501.13133v1
- Date: Wed, 22 Jan 2025 07:12:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:09.143427
- Title: Graph Representation Learning with Diffusion Generative Models
- Title(参考訳): 拡散生成モデルを用いたグラフ表現学習
- Authors: Daniel Wesego,
- Abstract要約: 我々は、グラフデータの意味のある埋め込みを学習するために、オートエンコーダフレームワーク内で離散拡散モデルを訓練する。
本手法は,グラフ表現学習に使用する離散拡散モデルの可能性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Diffusion models have established themselves as state-of-the-art generative models across various data modalities, including images and videos, due to their ability to accurately approximate complex data distributions. Unlike traditional generative approaches such as VAEs and GANs, diffusion models employ a progressive denoising process that transforms noise into meaningful data over multiple iterative steps. This gradual approach enhances their expressiveness and generation quality. Not only that, diffusion models have also been shown to extract meaningful representations from data while learning to generate samples. Despite their success, the application of diffusion models to graph-structured data remains relatively unexplored, primarily due to the discrete nature of graphs, which necessitates discrete diffusion processes distinct from the continuous methods used in other domains. In this work, we leverage the representational capabilities of diffusion models to learn meaningful embeddings for graph data. By training a discrete diffusion model within an autoencoder framework, we enable both effective autoencoding and representation learning tailored to the unique characteristics of graph-structured data. We only need the encoder at the end to extract representations. Our approach demonstrates the potential of discrete diffusion models to be used for graph representation learning.
- Abstract(参考訳): 拡散モデルは、複雑なデータ分布を正確に近似できるため、画像やビデオを含む様々なデータモダリティにわたる最先端の生成モデルとして確立されている。
VAEやGANのような従来の生成的アプローチとは異なり、拡散モデルでは、ノイズを複数の反復的なステップで有意義なデータに変換するプログレッシブデノイズ化プロセスを採用している。
この段階的なアプローチは、表現力と生成品質を高める。
それだけでなく、拡散モデルによりデータから意味のある表現を抽出し、サンプルを生成することが示されている。
その成功にもかかわらず、グラフ構造データへの拡散モデルの適用は、主にグラフの離散的な性質のために、他の領域で使われる連続的な方法とは異なる離散的な拡散過程を必要とするため、比較的未解明のままである。
本研究では,拡散モデルの表現能力を活用して,グラフデータの意味のある埋め込みを学習する。
オートエンコーダフレームワーク内で離散拡散モデルを訓練することにより、グラフ構造化データのユニークな特徴に合わせた効果的なオートエンコーディングと表現学習を両立させることができる。
表現を抽出するために、最後にエンコーダが必要なだけです。
本手法は,グラフ表現学習に使用する離散拡散モデルの可能性を示す。
関連論文リスト
- DeFoG: Discrete Flow Matching for Graph Generation [45.037260759871124]
グラフ生成のための離散フローマッチングを用いた新しいフレームワークであるDeFoGを提案する。
DeFoGはフローベースのアプローチを採用しており、効率的な線形雑音化プロセスと柔軟な雑音化プロセスを備えている。
我々は,DeFoGが合成および分子データセット上で最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2024-10-05T18:52:54Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Cometh: A continuous-time discrete-state graph diffusion model [8.444907767842228]
グラフデータの特異性に合わせて連続時間離散状態グラフ拡散モデルであるCometを提案する。
VUNサンプルの面では、Cometは平面グラフデータセットで99.5%のほぼ完全なパフォーマンスを取得し、大きなGuacaMolデータセットでDiGressを12.6%上回っている。
論文 参考訳(メタデータ) (2024-06-10T16:39:39Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Lecture Notes in Probabilistic Diffusion Models [0.5361320134021585]
拡散モデルは非平衡熱力学に基づいてゆるやかにモデル化される。
拡散モデルは、元のデータサンプルが属するデータ多様体を学習する。
拡散モデルは、変分オートエンコーダやフローモデルとは異なり、元のデータと同じ次元の潜伏変数を持つ。
論文 参考訳(メタデータ) (2023-12-16T09:36:54Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Directional diffusion models for graph representation learning [9.457273750874357]
我々は方向拡散モデルと呼ばれる新しいモデルのクラスを提案する。
これらのモデルは前方拡散過程にデータ依存、異方性、指向性ノイズを含む。
我々は,2つのグラフ表現学習タスクに焦点をあてて,12の公開データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2023-06-22T21:27:48Z) - Image retrieval outperforms diffusion models on data augmentation [36.559967424331695]
拡散モデルは、分類などの下流タスクのためのトレーニングデータセットを強化するために提案されている。
強化のために事前学習プロセスの追加データを直接利用して、改善を十分に一般化するかどうかは不明だ。
ターゲットデータに対する拡散モデルのパーソナライズは、より単純なプロンプト戦略より優れている。
しかし,拡散モデルの事前学習データのみを用いることで,より強力な下流性能が得られる。
論文 参考訳(メタデータ) (2023-04-20T12:21:30Z) - Diffusion Models as Masked Autoencoders [52.442717717898056]
拡散モデルに対する近年の関心を踏まえて、生成的に事前学習された視覚表現を再考する。
拡散モデルによる直接事前学習では強い表現は得られないが、マスク付き入力上での拡散モデルと公式拡散モデルをマスク付きオートエンコーダ(DiffMAE)として条件付ける。
設計選択の長所と短所について包括的な研究を行い、拡散モデルとマスク付きオートエンコーダ間の接続を構築する。
論文 参考訳(メタデータ) (2023-04-06T17:59:56Z) - Generative Diffusion Models on Graphs: Methods and Applications [50.44334458963234]
拡散モデルは、新しい生成パラダイムとして、様々な画像生成タスクにおいて顕著な成功を収めた。
グラフ生成は多くの実世界のアプリケーションを持つグラフ上で重要な計算タスクである。
論文 参考訳(メタデータ) (2023-02-06T06:58:17Z) - Diffusion Models in Vision: A Survey [73.10116197883303]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。