論文の概要: Gaussian process regression with Sliced Wasserstein Weisfeiler-Lehman
graph kernels
- arxiv url: http://arxiv.org/abs/2402.03838v1
- Date: Tue, 6 Feb 2024 09:35:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 15:28:34.067057
- Title: Gaussian process regression with Sliced Wasserstein Weisfeiler-Lehman
graph kernels
- Title(参考訳): Sliced Wasserstein Weisfeiler-Lehmanグラフカーネルによるガウス過程の回帰
- Authors: Rapha\"el Carpintero Perez (CMAP), S\'ebastien da Veiga (ENSAI,
CREST), Josselin Garnier (CMAP), Brian Staber
- Abstract要約: 教師付き学習は近年、計算物理学の分野で大きな注目を集めている。
伝統的に、そのようなデータセットはメッシュとして与えられる入力で構成され、多くのノードが問題幾何学を表す。
つまり、教師付き学習モデルは、ノード属性の連続した大きなスパースグラフを処理できなければならない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised learning has recently garnered significant attention in the field
of computational physics due to its ability to effectively extract complex
patterns for tasks like solving partial differential equations, or predicting
material properties. Traditionally, such datasets consist of inputs given as
meshes with a large number of nodes representing the problem geometry (seen as
graphs), and corresponding outputs obtained with a numerical solver. This means
the supervised learning model must be able to handle large and sparse graphs
with continuous node attributes. In this work, we focus on Gaussian process
regression, for which we introduce the Sliced Wasserstein Weisfeiler-Lehman
(SWWL) graph kernel. In contrast to existing graph kernels, the proposed SWWL
kernel enjoys positive definiteness and a drastic complexity reduction, which
makes it possible to process datasets that were previously impossible to
handle. The new kernel is first validated on graph classification for molecular
datasets, where the input graphs have a few tens of nodes. The efficiency of
the SWWL kernel is then illustrated on graph regression in computational fluid
dynamics and solid mechanics, where the input graphs are made up of tens of
thousands of nodes.
- Abstract(参考訳): 教師付き学習は、偏微分方程式の解法や材料特性の予測といったタスクの複雑なパターンを効果的に抽出する能力によって、計算物理学の分野で大きな注目を集めている。
伝統的に、このようなデータセットは、問題幾何を表す多数のノードが(グラフとして)メッシュとして与えられる入力と、数値解法で得られる対応する出力からなる。
つまり、教師付き学習モデルは、ノード属性の連続した大きなスパースグラフを処理できなければならない。
本研究ではガウス過程の回帰に着目し,スライスしたwasserstein weisfeiler-lehman(swwl)グラフカーネルを紹介する。
既存のグラフカーネルとは対照的に、提案されているswlカーネルはポジティブな定性と劇的な複雑さの低減を享受しており、これまで処理できなかったデータセットを処理できる。
新しいカーネルは、入力グラフが数十のノードを持つ分子データセットのグラフ分類で最初に検証される。
SWWLカーネルの効率は、数万のノードからなる入力グラフを構成する計算流体力学や固体力学におけるグラフ回帰に基づいて説明される。
関連論文リスト
- NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Graph Neural Network-Inspired Kernels for Gaussian Processes in
Semi-Supervised Learning [4.644263115284322]
グラフニューラルネットワーク(GNN)は、半教師付き学習において、グラフ構造化データのモデルとして期待できるクラスとして最近登場した。
この帰納バイアスをGPに導入して,グラフ構造化データの予測性能を向上させる。
これらのグラフベースのカーネルは、各GNNと比較して、競合する分類と回帰性能、および時間の長所をもたらすことを示す。
論文 参考訳(メタデータ) (2023-02-12T01:07:56Z) - Transductive Kernels for Gaussian Processes on Graphs [7.542220697870243]
半教師付き学習のためのノード特徴データ付きグラフ用の新しいカーネルを提案する。
カーネルは、グラフと特徴データを2つの空間として扱うことにより、正規化フレームワークから派生する。
グラフ上のカーネルベースのモデルがどれだけの頻度で設計されているかを示す。
論文 参考訳(メタデータ) (2022-11-28T14:00:50Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - Semi-Supervised Learning on Graphs with Feature-Augmented Graph Basis
Functions [7.6146285961466]
教師なし学習システムにおける初期カーネルを、既知の事前情報や教師なし学習出力から追加情報で拡張する方法について検討する。
正定値カーネルの生成元として、グラフの幾何学的情報を含むグラフ基底関数(GBF)に焦点を当てる。
機械学習において、正規化最小二乗(RLS)アプローチを用いて、グラフ上のデータの分類のために、導出した拡張カーネルをテストする。
論文 参考訳(メタデータ) (2020-03-17T11:21:43Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。