論文の概要: A category theory framework for Bayesian learning
- arxiv url: http://arxiv.org/abs/2111.14293v1
- Date: Mon, 29 Nov 2021 01:51:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 05:27:57.675889
- Title: A category theory framework for Bayesian learning
- Title(参考訳): ベイズ学習のためのカテゴリ理論の枠組み
- Authors: Kotaro Kamiya and John Welliaveetil
- Abstract要約: ベイズ推論と学習を形式化する分類的枠組みを導入する。
ベイズ学習は学習パラダイムの最も単純な場合である。
バッチおよびシーケンシャルベイズ更新の分類的定式化と,それらが特定の例に一致することを検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by the foundational works by Spivak and Fong and Cruttwell et al.,
we introduce a categorical framework to formalize Bayesian inference and
learning. The two key ideas at play here are the notions of Bayesian inversions
and the functor GL as constructed by Cruttwell et al.. In this context, we find
that Bayesian learning is the simplest case of the learning paradigm. We then
obtain categorical formulations of batch and sequential Bayes updates while
also verifying that the two coincide in a specific example.
- Abstract(参考訳): spivak、fong、cruttwellらによる基礎研究に着想を得て、ベイズ推論と学習を形式化する分類的枠組みを導入する。
ここでの2つの主要な考えは、ベイズ反転の概念と、クルトウェルらによって構築された関手 GL である。
この文脈では、ベイズ学習が学習パラダイムの最も単純なケースであることがわかった。
次に、バッチおよびシーケンシャルベイズ更新のカテゴリの定式化と、その2つが特定の例で一致することを検証する。
関連論文リスト
- Variational Inference for GARCH-family Models [84.84082555964086]
変分推論は、機械学習モデルにおけるベイズ推論の堅牢なアプローチである。
本研究では,変分推論がベイズ学習の魅力的な,極めてよく校正された,競争力のある方法であることを示す。
論文 参考訳(メタデータ) (2023-10-05T10:21:31Z) - All Roads Lead to Rome? Exploring the Invariance of Transformers'
Representations [69.3461199976959]
本稿では, ビジェクション仮説を学習するために, 非可逆ニューラルネットワーク BERT-INN に基づくモデルを提案する。
BERT-INNの利点は理論上も広範な実験を通じても明らかである。
論文 参考訳(メタデータ) (2023-05-23T22:30:43Z) - The Compositional Structure of Bayesian Inference [0.0]
ベイズの規則は、新たな証拠に照らして私たちの信念を更新するために、因果過程を逆転する方法を教えてくれる。
本稿では, この構成規則の構造について考察し, 関数型プログラミングにおけるレンズパターンとの関係について述べる。
論文 参考訳(メタデータ) (2023-05-10T12:57:42Z) - Mathematical Foundations for a Compositional Account of the Bayesian
Brain [0.0]
現代応用圏論のツールを用いて、近似推論のための関手意味論を提供する。
統計ゲームのフィブレーションを定義し、統計的推論の様々な問題を対応する部分として分類する。
我々は,自由エネルギー原理の下で,予測符号化ニューラルネットワークの構成構造を説明する関手を構築した。
論文 参考訳(メタデータ) (2022-12-23T18:58:17Z) - Bayesian Learning for Neural Networks: an algorithmic survey [95.42181254494287]
この自己完結型調査は、ベイズ学習ニューラルネットワークの原理とアルゴリズムを読者に紹介する。
アクセシブルで実践的な視点からこのトピックを紹介します。
論文 参考訳(メタデータ) (2022-11-21T21:36:58Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - Rethinking Bayesian Deep Learning Methods for Semi-Supervised Volumetric
Medical Image Segmentation [83.47693725782457]
医用画像セグメンテーションのための新しい生成ベイズディープラーニング(GBDL)アーキテクチャを提案する。
GBDLは,入力医療ボリュームと対応するラベルの同時分布を推定することを目的とした生成モデルに属する。
我々のGBDLは、3つの公開医療データセットで一般的に使用される4つの評価指標において、従来の最先端手法よりも優れています。
論文 参考訳(メタデータ) (2022-06-18T23:07:04Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - Priors in Bayesian Deep Learning: A Review [4.020523898765405]
ベイズ深層学習における事前選択の重要性を強調する。
本稿では, (深い) ガウス過程, 変分オートエンコーダ, ベイズニューラルネットワークに対して提案されている, 様々な前処理について概説する。
論文 参考訳(メタデータ) (2021-05-14T14:53:30Z) - A non-commutative Bayes' theorem [0.0]
ベイズの定理の類似性を古典的および量子的共同文脈で証明する。
さらに、ほぼ至る所で同値な非可換性を開発する。
この手順が量子情報理論に関連するいくつかの例に対してどのように機能するかを説明する。
論文 参考訳(メタデータ) (2020-05-08T07:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。