論文の概要: Graph Neural Network Bandits
- arxiv url: http://arxiv.org/abs/2207.06456v1
- Date: Wed, 13 Jul 2022 18:12:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 12:13:47.617299
- Title: Graph Neural Network Bandits
- Title(参考訳): グラフニューラルネットワークバンド
- Authors: Parnian Kassraie, Andreas Krause, Ilija Bogunovic
- Abstract要約: グラフ構造データ上で定義された報酬関数を用いた帯域最適化問題を考察する。
この設定の主な課題は、大きなドメインへのスケーリングと、多くのノードを持つグラフへのスケーリングである。
グラフニューラルネットワーク(GNN)を用いて報酬関数を推定できることを示す。
- 参考スコア(独自算出の注目度): 89.31889875864599
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We consider the bandit optimization problem with the reward function defined
over graph-structured data.
This problem has important applications in molecule design and drug
discovery, where the reward is naturally invariant to graph permutations.
The key challenges in this setting are scaling to large domains, and to
graphs with many nodes.
We resolve these challenges by embedding the permutation invariance into our
model.
In particular, we show that graph neural networks (GNNs) can be used to
estimate the reward function, assuming it resides in the Reproducing Kernel
Hilbert Space of a permutation-invariant additive kernel.
By establishing a novel connection between such kernels and the graph neural
tangent kernel (GNTK), we introduce the first GNN confidence bound and use it
to design a phased-elimination algorithm with sublinear regret.
Our regret bound depends on the GNTK's maximum information gain, which we
also provide a bound for.
While the reward function depends on all $N$ node features, our guarantees
are independent of the number of graph nodes $N$.
Empirically, our approach exhibits competitive performance and scales well on
graph-structured domains.
- Abstract(参考訳): グラフ構造データ上で定義された報酬関数を用いた帯域最適化問題を考察する。
この問題は分子設計や薬物発見において重要な応用であり、報酬はグラフ置換に自然に不変である。
この設定における重要な課題は、大きなドメインと多くのノードのグラフへのスケーリングである。
モデルに置換不変性を埋め込むことで、これらの課題を解決する。
特に、グラフニューラルネットワーク(GNN)は、置換不変加法カーネルの再生カーネルヒルベルト空間に存在すると仮定して、報酬関数を推定するために使用できることを示す。
このようなカーネルとグラフニューラルタンジェントカーネル(GNTK)との新たな接続を確立することで、最初のGNN信頼境界を導入し、それをサブ線形後悔を伴う位相除去アルゴリズムの設計に利用する。
我々の後悔の限界は、GNTKの最大情報ゲインに依存します。
報酬関数はすべての$N$ノード機能に依存するが、我々の保証はグラフノード数$N$とは無関係である。
提案手法は,グラフ構造ドメイン上での競合性能とスケール性を示す。
関連論文リスト
- Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - The Exact Class of Graph Functions Generated by Graph Neural Networks [43.25172578943894]
グラフ関数と出力が同一のグラフニューラルネットワーク(GNN)?
本稿では,この疑問に完全に答え,GNNで表現可能なグラフ問題のクラスを特徴付ける。
この条件は2次的に多くの制約をチェックすることで効率よく検証できることを示す。
論文 参考訳(メタデータ) (2022-02-17T18:54:27Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Graph Neural Networks with Local Graph Parameters [1.8600631687568656]
ローカルグラフパラメータは、任意のグラフニューラルネットワーク(GNN)アーキテクチャに追加することができる。
我々の結果は、有限モデル理論と有限変数論理の深い結果とGNNを結びつける。
論文 参考訳(メタデータ) (2021-06-12T07:43:51Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。