論文の概要: Hierarchical Gaussian Process Priors for Bayesian Neural Network Weights
- arxiv url: http://arxiv.org/abs/2002.04033v1
- Date: Mon, 10 Feb 2020 07:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 07:58:53.391496
- Title: Hierarchical Gaussian Process Priors for Bayesian Neural Network Weights
- Title(参考訳): 階層型ガウス過程によるベイズ型ニューラルネットワークの重み付け
- Authors: Theofanis Karaletsos, Thang D. Bui
- Abstract要約: 望ましい事前分類は、重みをコンパクトに表現し、重み間の相関を捉え、事前知識を含ませることである。
i) 相関重み構造を柔軟にエンコード可能な単位埋め込みに基づくネットワーク重みのプロセスベース階層モデルと,(ii) 関数空間の規則化に便利な入力依存型の重み前のモデルを提案する。
これらのモデルは、分布外データに基づいて望ましいテスト時間不確実性推定を提供し、カーネルを用いたニューラルネットワークの帰納バイアスをモデル化する事例を示し、アクティブラーニングベンチマークで競合予測性能を示す。
- 参考スコア(独自算出の注目度): 16.538973310830414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Probabilistic neural networks are typically modeled with independent weight
priors, which do not capture weight correlations in the prior and do not
provide a parsimonious interface to express properties in function space. A
desirable class of priors would represent weights compactly, capture
correlations between weights, facilitate calibrated reasoning about
uncertainty, and allow inclusion of prior knowledge about the function space
such as periodicity or dependence on contexts such as inputs. To this end, this
paper introduces two innovations: (i) a Gaussian process-based hierarchical
model for network weights based on unit embeddings that can flexibly encode
correlated weight structures, and (ii) input-dependent versions of these weight
priors that can provide convenient ways to regularize the function space
through the use of kernels defined on contextual inputs. We show these models
provide desirable test-time uncertainty estimates on out-of-distribution data,
demonstrate cases of modeling inductive biases for neural networks with kernels
which help both interpolation and extrapolation from training data, and
demonstrate competitive predictive performance on an active learning benchmark.
- Abstract(参考訳): 確率的ニューラルネットワークは通常、独立重み付きでモデル化され、これは事前の重み相関を捉えず、関数空間における特性を表現するための相似インターフェースを提供しない。
望ましい事前のクラスは、重みをコンパクトに表現し、重み間の相関を捉え、不確実性に関する校正的推論を促進し、周期性や入力などの文脈への依存といった関数空間に関する事前知識を含ませることである。
この目的のために,本稿では2つのイノベーションを紹介する。
i) 関係重み構造を柔軟に符号化可能な単位埋め込みに基づくガウス過程に基づくネットワーク重みの階層モデル
(II)これらの重み付けの入力依存バージョンは、文脈入力で定義されたカーネルを用いて関数空間を規則化する便利な方法を提供する。
これらのモデルは,分布外データに対して望ましいテスト時間不確実性推定を提供し,トレーニングデータからの補間と補間の両方に役立つカーネルによるニューラルネットワークの帰納バイアスをモデル化し,アクティブな学習ベンチマークで競合予測性能を示す。
関連論文リスト
- Nonuniform random feature models using derivative information [10.239175197655266]
ニューラルネットワークの初期化のための不均一なデータ駆動パラメータ分布を近似する関数の微分データに基づいて提案する。
We address the case of Heaviside and ReLU activation function and their smooth approximations (Sigmoid and softplus)。
入力点における近似微分データに基づいて、これらの正確な密度を単純化し、非常に効率的なサンプリングを可能にし、複数のシナリオにおいて最適なネットワークに近いランダムな特徴モデルの性能をもたらすことを提案する。
論文 参考訳(メタデータ) (2024-10-03T01:30:13Z) - Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Empowering Bayesian Neural Networks with Functional Priors through Anchored Ensembling for Mechanics Surrogate Modeling Applications [0.0]
本稿では,関数空間で利用可能な事前情報を統合するアンカー型アンサンブルに基づく新しいBNNトレーニング手法を提案する。
アンカーリング方式は, NNパラメータ間の低ランク相関を利用して, 事前学習から関数前の実現まで学習する。
また,既存のBNN実装では無視されることが多いNN重み間の相関が,関数空間とパラメータ空間の事前知識を適切に伝達する上で重要であることを示す。
論文 参考訳(メタデータ) (2024-09-08T22:27:50Z) - SPIN: SE(3)-Invariant Physics Informed Network for Binding Affinity Prediction [3.406882192023597]
タンパク質-リガンド結合親和性の正確な予測は、薬物開発に不可欠である。
伝統的な手法は、しばしば複合体の空間情報を正確にモデル化するのに失敗する。
この課題に適用可能な様々な帰納バイアスを組み込んだモデルSPINを提案する。
論文 参考訳(メタデータ) (2024-07-10T08:40:07Z) - Surprisal Driven $k$-NN for Robust and Interpretable Nonparametric
Learning [1.4293924404819704]
我々は情報理論の観点から、隣り合う従来のアルゴリズムに新たな光を当てた。
単一モデルを用いた分類,回帰,密度推定,異常検出などのタスクに対する頑健で解釈可能なフレームワークを提案する。
我々の研究は、分類と異常検出における最先端の成果を達成することによって、アーキテクチャの汎用性を示す。
論文 参考訳(メタデータ) (2023-11-17T00:35:38Z) - Kalman Filter for Online Classification of Non-Stationary Data [101.26838049872651]
オンライン連続学習(OCL)では、学習システムはデータのストリームを受け取り、予測とトレーニングの手順を順次実行する。
本稿では,線形予測量に対するニューラル表現と状態空間モデルを用いた確率ベイズオンライン学習モデルを提案する。
多クラス分類の実験では、モデルの予測能力と非定常性を捉える柔軟性を示す。
論文 参考訳(メタデータ) (2023-06-14T11:41:42Z) - Modeling Implicit Bias with Fuzzy Cognitive Maps [0.0]
本稿では、構造化データセットにおける暗黙バイアスを定量化するファジィ認知マップモデルを提案する。
本稿では,ニューロンの飽和を防止する正規化様伝達関数を備えた新しい推論機構を提案する。
論文 参考訳(メタデータ) (2021-12-23T17:04:12Z) - Deep Archimedean Copulas [98.96141706464425]
ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
論文 参考訳(メタデータ) (2020-12-05T22:58:37Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z) - Learning Likelihoods with Conditional Normalizing Flows [54.60456010771409]
条件正規化フロー(CNF)はサンプリングと推論において効率的である。
出力空間写像に対する基底密度が入力 x 上で条件づけられた CNF について、条件密度 p(y|x) をモデル化する。
論文 参考訳(メタデータ) (2019-11-29T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。