論文の概要: Spatial Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2311.09491v1
- Date: Thu, 16 Nov 2023 01:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 17:03:03.982391
- Title: Spatial Bayesian Neural Networks
- Title(参考訳): 空間ベイズ型ニューラルネットワーク
- Authors: Andrew Zammit-Mangion, Michael D. Kaminski, Ba-Hien Tran, Maurizio
Filippone, Noel Cressie
- Abstract要約: 我々は空間ベイズニューラルネットワーク(SBNN)と呼ばれる新しい空間過程モデルを提案する。
SBNNは、空間の微細格子上の位置における有限次元分布を、対象とするプロセスのそれと整合させることにより、校正される。
単一のSBNNは、ガウス過程や対数正規過程など、実際によく使用される様々な空間過程を表現するために使用できる。
- 参考スコア(独自算出の注目度): 9.220551403379082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Statistical models for spatial processes play a central role in statistical
analyses of spatial data. Yet, it is the simple, interpretable, and well
understood models that are routinely employed even though, as is revealed
through prior and posterior predictive checks, these can poorly characterise
the spatial heterogeneity in the underlying process of interest. Here, we
propose a new, flexible class of spatial-process models, which we refer to as
spatial Bayesian neural networks (SBNNs). An SBNN leverages the
representational capacity of a Bayesian neural network; it is tailored to a
spatial setting by incorporating a spatial "embedding layer" into the network
and, possibly, spatially-varying network parameters. An SBNN is calibrated by
matching its finite-dimensional distribution at locations on a fine gridding of
space to that of a target process of interest. That process could be easy to
simulate from or we have many realisations from it. We propose several variants
of SBNNs, most of which are able to match the finite-dimensional distribution
of the target process at the selected grid better than conventional BNNs of
similar complexity. We also show that a single SBNN can be used to represent a
variety of spatial processes often used in practice, such as Gaussian processes
and lognormal processes. We briefly discuss the tools that could be used to
make inference with SBNNs, and we conclude with a discussion of their
advantages and limitations.
- Abstract(参考訳): 空間過程の統計モデルは空間データの統計解析において中心的な役割を果たす。
しかし、事前および後続の予測チェックによって明らかにされるように、これは日常的に使用される単純で解釈可能でよく理解されたモデルであり、これらは、基礎となる関心の過程における空間的不均一性を不十分に特徴づけることができる。
本稿では,空間ベイズニューラルネットワーク(SBNN)と呼ばれる,新しいフレキシブルな空間プロセスモデルを提案する。
sbnnはベイズ型ニューラルネットワークの表現能力を活用しており、空間的「埋め込み層」をネットワークに組み込んだ空間的設定や、おそらく空間的に変動するネットワークパラメータに合わせたものである。
sbnnは、空間の微細な格子上の位置におけるその有限次元分布を対象の関心過程のそれと一致させることで校正される。
そのプロセスは簡単にシミュレートできますし、多くの実現例があります。
我々は,SBNNの変種をいくつか提案するが,そのほとんどは,従来のBNNに比べて,選択されたグリッドにおける対象プロセスの有限次元分布によく一致する。
また,単一のsbnnを用いて,ガウス過程や対数正規過程など,実際によく用いられる様々な空間過程を表現することができることを示した。
我々は,SBNNによる推論に使用できるツールについて簡潔に議論し,その利点と限界について論じる。
関連論文リスト
- Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - Interpretable Neural Networks with Random Constructive Algorithm [3.1200894334384954]
本稿では,無作為重み付きニューラルネットワークの不透明なパラメータ化プロセスに取り組むために,空間情報を組み込んだ解釈型ニューラルネットワーク(INN)を提案する。
ネットワーク収束に寄与するノードパラメータを選択するために、候補ノードのプールと関係を確立することで、幾何学的関係戦略を考案する。
論文 参考訳(メタデータ) (2023-07-01T01:07:20Z) - Universal Approximation and the Topological Neural Network [0.0]
トポロジカルニューラルネットワーク(TNN)は、通常の有限次元空間の代わりにチコノフ位相空間からデータを取得する。
また、ボレル測度をデータとする分布ニューラルネットワーク(DNN)も導入する。
論文 参考訳(メタデータ) (2023-05-26T05:28:10Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Deep Convolutional Neural Networks with Spatial Regularization, Volume
and Star-shape Priori for Image Segmentation [6.282154392910916]
CNNの既存のネットワークアーキテクチャにおける分類機能は単純であり、重要な空間情報を扱う能力に欠ける。
我々は,多くの空間的先行情報をDCNNに簡単に統合できる,新しいソフト・スレッショルド・ダイナミクス(STD)フレームワークを提案する。
提案手法は一般的な数学的枠組みであり,どの意味的セグメンテーションDCNNにも適用可能である。
論文 参考訳(メタデータ) (2020-02-10T18:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。