論文の概要: Bandit Samplers for Training Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2006.05806v2
- Date: Thu, 11 Jun 2020 07:39:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 04:29:07.753123
- Title: Bandit Samplers for Training Graph Neural Networks
- Title(参考訳): グラフニューラルネットワーク学習用バンディットサンプリング器
- Authors: Ziqi Liu, Zhengwei Wu, Zhiqiang Zhang, Jun Zhou, Shuang Yang, Le Song,
Yuan Qi
- Abstract要約: グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
- 参考スコア(独自算出の注目度): 63.17765191700203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several sampling algorithms with variance reduction have been proposed for
accelerating the training of Graph Convolution Networks (GCNs). However, due to
the intractable computation of optimal sampling distribution, these sampling
algorithms are suboptimal for GCNs and are not applicable to more general graph
neural networks (GNNs) where the message aggregator contains learned weights
rather than fixed weights, such as Graph Attention Networks (GAT). The
fundamental reason is that the embeddings of the neighbors or learned weights
involved in the optimal sampling distribution are changing during the training
and not known a priori, but only partially observed when sampled, thus making
the derivation of an optimal variance reduced samplers non-trivial. In this
paper, we formulate the optimization of the sampling variance as an adversary
bandit problem, where the rewards are related to the node embeddings and
learned weights, and can vary constantly. Thus a good sampler needs to acquire
variance information about more neighbors (exploration) while at the same time
optimizing the immediate sampling variance (exploit). We theoretically show
that our algorithm asymptotically approaches the optimal variance within a
factor of 3. We show the efficiency and effectiveness of our approach on
multiple datasets.
- Abstract(参考訳): グラフ畳み込みネットワーク (GCN) の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
しかし、最適なサンプリング分布の難解な計算のため、これらのサンプリングアルゴリズムはGCNに最適であり、グラフ注意ネットワーク(GAT)のような固定重みではなく学習重量を含むより一般的なグラフニューラルネットワーク(GNN)には適用できない。
基本的な理由は、最適サンプリング分布にかかわる近傍の埋め込みや学習された重みの埋め込みがトレーニング中に変化し、事前は分かっていないが、サンプリング時にのみ部分的に観察されるため、最適分散還元サンプラーの導出は非自明である。
本稿では,サンプル分散の最適化を,ノードの埋め込みや学習重みに関する報奨問題として定式化し,常に変化させることができる。
したがって、良いサンプリング器は、即時サンプリング分散(exploit)を最適化しながら、より多くの隣人に関する分散情報(exploration)を取得する必要がある。
理論上,本アルゴリズムは3因子内の最適分散に漸近的に接近することを示した。
複数のデータセットに対するアプローチの効率性と有効性を示す。
関連論文リスト
- Sample-efficient Bayesian Optimisation Using Known Invariances [56.34916328814857]
バニラと制約付きBOアルゴリズムは、不変目的を最適化する際の非効率性を示す。
我々はこれらの不変カーネルの最大情報ゲインを導出する。
核融合炉用電流駆動システムの設計に本手法を用い, 高性能溶液の探索を行った。
論文 参考訳(メタデータ) (2024-10-22T12:51:46Z) - Favour: FAst Variance Operator for Uncertainty Rating [0.034530027457862]
機械学習予測を解釈するための重要なアプローチとしてベイズニューラルネットワーク(BNN)が登場した。
後部分布からサンプリングすることで、データサイエンティストは推論の不確実性を推定することができる。
以前の研究は、ネットワークを介して後部の第1モーメントと第2モーメントを伝播することを提案した。
この方法はサンプリングよりも遅いため、伝播分散を近似する必要がある。
私たちの貢献は、より原則化された分散伝播フレームワークです。
論文 参考訳(メタデータ) (2023-11-21T22:53:20Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - On the Importance of Sampling in Learning Graph Convolutional Networks [13.713485304798368]
Graph Convolutional Networks (GCNs) は、様々なグラフ関連アプリケーションにおいて、目覚ましい進歩を遂げている。
その成功にもかかわらず、大きなグラフ上でのgcnのトレーニングは計算とメモリの問題に苦しむ。
メモリ予算下で任意のサンプリングメソッドを高速化できる一般的なtextbftextitdoubly variance reductionスキーマを記述・解析する。
論文 参考訳(メタデータ) (2021-03-03T21:31:23Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Communication-Efficient Sampling for Distributed Training of Graph
Convolutional Networks [3.075766050800645]
隣のノードからデータを集約する必要があるため、トレーニンググラフ畳み込みネットワーク(GCN)は高価です。
先行研究では,少数の隣人を対象に,収集結果を推定する様々な近傍サンプリング手法が提案されている。
本稿では, 局所サンプリング確率を判定し, スクイード隣りのサンプリングがトレーニングの収束度に大きく影響しないことを確かめるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-19T16:12:44Z) - Rotation Averaging with Attention Graph Neural Networks [4.408728798697341]
大規模多重回転平均化のためのリアルタイム・ロバストな解法を提案する。
本手法では,ネットワーク設計における重み付け平均化とアテンション機構を用いて,すべての観測結果を用いて,異常値の影響を抑える。
その結果、より速く、より堅牢なネットワークとなり、以前のニューラルアプローチよりも少ないサンプルでトレーニングできる。
論文 参考訳(メタデータ) (2020-10-14T02:07:19Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。