論文の概要: Learning in Deep Factor Graphs with Gaussian Belief Propagation
- arxiv url: http://arxiv.org/abs/2311.14649v2
- Date: Wed, 28 Feb 2024 15:56:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 18:23:41.592907
- Title: Learning in Deep Factor Graphs with Gaussian Belief Propagation
- Title(参考訳): ガウス的信念伝播を伴う深部因子グラフの学習
- Authors: Seth Nabarro, Mark van der Wilk, Andrew J Davison
- Abstract要約: 我々は,すべての関連する量をグラフィカルモデルにおけるランダム変数として扱い,学習と予測の両方を異なる観測ノードでの推論問題とみなす。
本実験は,更新が本質的に局所的である信念伝播(BP)を用いて,これらの問題を効率的に解けることを示す。
私たちのアプローチはディープネットワークに拡張することができ、継続的な学習を行う自然な手段を提供します。
- 参考スコア(独自算出の注目度): 28.618068211288655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an approach to do learning in Gaussian factor graphs. We treat all
relevant quantities (inputs, outputs, parameters, latents) as random variables
in a graphical model, and view both training and prediction as inference
problems with different observed nodes. Our experiments show that these
problems can be efficiently solved with belief propagation (BP), whose updates
are inherently local, presenting exciting opportunities for distributed and
asynchronous training. Our approach can be scaled to deep networks and provides
a natural means to do continual learning: use the BP-estimated parameter
marginals of the current task as parameter priors for the next. On a video
denoising task we demonstrate the benefit of learnable parameters over a
classical factor graph approach and we show encouraging performance of deep
factor graphs for continual image classification.
- Abstract(参考訳): ガウス因子グラフにおける学習の方法を提案する。
我々は,すべての関連する量(インプット,出力,パラメータ,潜時)をグラフィカルモデルにおけるランダム変数として扱い,学習と予測の両方を異なる観測ノードでの推論問題とみなす。
実験の結果,これらの問題は,更新が本質的にローカルである信念伝達(BP)によって効率的に解決できることが示唆された。
提案手法はディープネットワークに拡張可能であり,連続的な学習を行う自然な手段を提供する。
ビデオデノケーションタスクでは、古典的因子グラフアプローチよりも学習可能なパラメータの利点を実証し、連続的な画像分類のための深度因子グラフの性能向上を示す。
関連論文リスト
- Empowering Graph Invariance Learning with Deep Spurious Infomax [27.53568333416706]
本稿では,頑健かつ一般的な帰納バイアスを誘発する新しいグラフ不変性学習パラダイムを提案する。
EQuADは、合成データセットにおける様々なバイアスの度合いにまたがって安定したパフォーマンスを示し、実世界のデータセットに最大311.76%の価格で挑戦する。
論文 参考訳(メタデータ) (2024-07-13T14:18:47Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Graph Neural Processes for Spatio-Temporal Extrapolation [36.01312116818714]
グラフ内の周囲のコンテキストから対象地点のデータを生成する補間時間プロセスのタスクについて検討する。
既存の手法では、ニューラルネットワークのような学習に精通したモデルや、ガウスのような統計的アプローチが使用されている。
本稿では,これらの機能を同時に制御するニューラル潜在変数モデルであるスポースグラフニューラル・プロセス(STGNP)を提案する。
論文 参考訳(メタデータ) (2023-05-30T03:55:37Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。