論文の概要: Implicit Graphon Neural Representation
- arxiv url: http://arxiv.org/abs/2211.03329v1
- Date: Mon, 7 Nov 2022 06:17:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 18:06:50.903250
- Title: Implicit Graphon Neural Representation
- Title(参考訳): 暗黙のグラフェン神経表現
- Authors: Xinyue Xia, Gal Mishne, Yusu Wang
- Abstract要約: ニューラルネットワークを用いて直接グラモンをモデル化し,Implicit Graphon Neural Representation (IGNR) を得る。
我々のIGNRは、任意の解像度までグラフを表現でき、任意のサイズのグラフを自然かつ効率的に生成できるという利点がある。
本稿では,グラフ表現学習とグラフ生成に適したモデルを示す。
- 参考スコア(独自算出の注目度): 15.175103000392488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graphons are general and powerful models for generating graphs of varying
size. In this paper, we propose to directly model graphons using neural
networks, obtaining Implicit Graphon Neural Representation (IGNR). Existing
work in modeling and reconstructing graphons often approximates a target
graphon by a fixed resolution piece-wise constant representation. Our IGNR has
the benefit that it can represent graphons up to arbitrary resolutions, and
enables natural and efficient generation of arbitrary sized graphs with desired
structure once the model is learned. Furthermore, we allow the input graph data
to be unaligned and have different sizes by leveraging the Gromov-Wasserstein
distance. We first demonstrate the effectiveness of our model by showing its
superior performance on a graphon learning task. We then propose an extension
of IGNR that can be incorporated into an auto-encoder framework, and
demonstrate its good performance under a more general setting of graphon
learning. We also show that our model is suitable for graph representation
learning and graph generation.
- Abstract(参考訳): グラフェンは、様々なサイズのグラフを生成するための一般的かつ強力なモデルである。
本稿では,ニューラルネットワークを用いて直接グラフをモデル化し,Implicit Graphon Neural Representation (IGNR) を得る。
グラノンのモデリングと再構成における既存の作業は、しばしば固定解像度のピースワイド定数表現によって標的グラノンを近似する。
我々のIGNRは、任意の解像度までグラフを表現できることの利点があり、モデルが学習されると、所望の構造を持つ任意のサイズのグラフを自然かつ効率的に生成できる。
さらに,Gromov-Wasserstein距離を利用して,入力グラフデータを不整合にし,異なるサイズにすることができる。
まず,グラフ学習タスクにおいて,その優れた性能を示すことにより,モデルの有効性を実証する。
次に,自動エンコーダフレームワークに組み込むことができるignrの拡張を提案し,graphon学習のより一般的な設定下でその優れた性能を示す。
また,このモデルがグラフ表現学習やグラフ生成に適していることを示す。
関連論文リスト
- Scalable Implicit Graphon Learning [25.015678499211404]
本稿では、暗黙的ニューラルネットワーク(INR)とグラフニューラルネットワーク(GNN)を組み合わせて、観測されたグラフからグラフを推定するスケーラブルな手法を提案する。
合成グラフと実世界のグラフでSIGLを評価し,既存の手法より優れ,大規模グラフに効果的にスケール可能であることを示した。
論文 参考訳(メタデータ) (2024-10-22T22:44:24Z) - Graph data augmentation with Gromow-Wasserstein Barycenters [0.0]
非ユークリッド空間で動作するグラフに対する新たな拡張戦略が提案されている。
非ユークリッド距離、特にグロモウ=ワッサーシュタイン距離は、グラフンのより良い近似をもたらす。
このフレームワークはまた、異なるグラフオン推定アプローチを検証する手段を提供する。
論文 参考訳(メタデータ) (2024-04-12T10:22:55Z) - Fine-tuning Graph Neural Networks by Preserving Graph Generative
Patterns [13.378277755978258]
プレトレーニンググラフと下流グラフの間の構造的ばらつきは,バニラ微調整戦略を用いた場合の転送可能性を大幅に制限することを示す。
下流グラフの生成パターンを保存するためにG-Tuningを提案する。
G-Tuningはドメイン内およびドメイン外移行学習実験において平均0.5%と2.6%の改善を示している。
論文 参考訳(メタデータ) (2023-12-21T05:17:10Z) - Graphon Pooling for Reducing Dimensionality of Signals and Convolutional
Operators on Graphs [131.53471236405628]
グラフ空間における[0, 1]2の分割上のグラフとグラフ信号の誘導的グラフ表現を利用する3つの方法を提案する。
これらの低次元表現がグラフとグラフ信号の収束列を構成することを証明している。
我々は,層間次元減少比が大きい場合,グラノンプーリングは文献で提案した他の手法よりも有意に優れていることを観察した。
論文 参考訳(メタデータ) (2022-12-15T22:11:34Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - The Power of Graph Convolutional Networks to Distinguish Random Graph
Models: Short Version [27.544219236164764]
グラフ畳み込みネットワーク(GCN)はグラフ表現学習において広く使われている手法である。
サンプルグラフの埋め込みに基づいて異なるランダムグラフモデルを区別するGCNのパワーについて検討する。
論文 参考訳(メタデータ) (2020-02-13T17:58:42Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。