論文の概要: A Bayesian Approach To Graph Partitioning
- arxiv url: http://arxiv.org/abs/2204.12927v1
- Date: Sun, 24 Apr 2022 05:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 07:25:07.964617
- Title: A Bayesian Approach To Graph Partitioning
- Title(参考訳): グラフ分割に対するベイズ的アプローチ
- Authors: Farshad Noravesh
- Abstract要約: ガウス過程(GP)に基づく局所グラフコンダクタンス学習のためのベイズ推論
新しいアルゴリズムは、高度なMCMC収束アイデアを使用して、定常分布への収束のスケーラブルで高速なアルゴリズムを作成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new algorithm based on bayesian inference for learning local graph
conductance based on Gaussian Process(GP) is given that uses advanced MCMC
convergence ideas to create a scalable and fast algorithm for convergence to
stationary distribution which is provided to learn the bahavior of conductance
when traversing the indirected weighted graph. First metric embedding is used
to represent the vertices of the graph. Then, uniform induced conductance is
calculated for training points. Finally, in the learning step, a gaussian
process is used to approximate the uniform induced conductance. MCMC is used to
measure uncertainty of estimated hyper-parameters.
- Abstract(参考訳): ガウス過程(GP)に基づく局所グラフコンダクタンス学習のためのベイジアン推論に基づく新しいアルゴリズムを,先進MCMC収束法を用いて,間接重み付きグラフをトラバースする際のコンダクタンスの振る舞いを学習するために提供される定常分布への収束のスケーラブルで高速なアルゴリズムを作成する。
最初の計量埋め込みはグラフの頂点を表すために使われる。
そして、トレーニングポイントに対して均一誘導コンダクタンスを算出する。
最後に、学習段階において、一様導電率を近似するためにガウス過程を用いる。
MCMCは推定されたハイパーパラメータの不確実性を測定するために使用される。
関連論文リスト
- Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Regularization of Mixture Models for Robust Principal Graph Learning [0.0]
D$次元データポイントの分布から主グラフを学習するために,Mixture Modelsの正規化バージョンを提案する。
モデルのパラメータは期待最大化手順によって反復的に推定される。
論文 参考訳(メタデータ) (2021-06-16T18:00:02Z) - Sampling in Combinatorial Spaces with SurVAE Flow Augmented MCMC [83.48593305367523]
ハイブリッドモンテカルロ(Hybrid Monte Carlo)は、複素連続分布からサンプリングする強力なマルコフ連鎖モンテカルロ法である。
本稿では,SurVAEフローを用いたモンテカルロ法の拡張に基づく新しい手法を提案する。
本稿では,統計学,計算物理学,機械学習など,様々な分野におけるアルゴリズムの有効性を実証し,代替アルゴリズムと比較した改良点を考察する。
論文 参考訳(メタデータ) (2021-02-04T02:21:08Z) - An adaptive Hessian approximated stochastic gradient MCMC method [12.93317525451798]
後方からのサンプリング中に局所的幾何情報を組み込む適応型ヘッセン近似勾配MCMC法を提案する。
我々は,ネットワークの空間性を高めるために,等級に基づく重み付け法を採用する。
論文 参考訳(メタデータ) (2020-10-03T16:22:15Z) - Alternating minimization algorithms for graph regularized tensor
completion [8.26185178671935]
我々は、低ランクテンソル完備化(LRTC)に対するカノニカルポリアディック(CP)分解法を考える。
グラフ正規化の使用にはLRTCの学習精度のメリットが伴うが、同時に結合グラフラプラシア語を誘導する。
基礎となるCP分解モデルにおけるブロック構造を利用して, 効率の良い同期最小化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-28T23:20:49Z) - Tensor Networks contraction and the Belief Propagation algorithm [0.0]
信念の伝播は、グラフィカルモデル上で動作するよく研究されたメッセージパッシングアルゴリズムである。
PEPSテンソルネットワークの世界にどのように適応できるかを示し、近似収縮スキームとして利用する。
論文 参考訳(メタデータ) (2020-08-10T22:03:25Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。