論文の概要: Bayesian Computation in Deep Learning
- arxiv url: http://arxiv.org/abs/2502.18300v1
- Date: Tue, 25 Feb 2025 15:39:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 17:42:46.129153
- Title: Bayesian Computation in Deep Learning
- Title(参考訳): 深層学習におけるベイズ計算
- Authors: Wenlong Chen, Bolian Li, Ruqi Zhang, Yingzhen Li,
- Abstract要約: 本稿では,ディープラーニングモデルに適用したベイズ計算手法として近似推論手法を紹介する。
我々は,(1)ベイズニューラルネットワークと(2)深部生成モデルに対する一般的な計算手法を提示し,後部推論におけるそれらのユニークな課題と解法を説明することによって,章を整理する。
- 参考スコア(独自算出の注目度): 27.678260738024505
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This review paper is intended for the 2nd edition of the Handbook of Markov chain Monte Carlo.We provide an introduction to approximate inference techniques as Bayesian computation methods applied to deep learning models. We organize the chapter by presenting popular computational methods for (1) Bayesian neural networks and (2) deep generative models, explaining their unique challenges in posterior inference as well as the solutions.
- Abstract(参考訳): 本稿では,マルコフ連鎖モンテカルロのハンドブックの第2版を対象として,ベイズ計算法をディープラーニングモデルに適用した近似推論手法について紹介する。
我々は,(1)ベイズニューラルネットワークと(2)深部生成モデルに対する一般的な計算手法を提示し,後部推論におけるそれらのユニークな課題と解法を説明することによって,章を整理する。
関連論文リスト
- Amortising Inference and Meta-Learning Priors in Neural Networks [6.79694176040179]
予測課題に対する信念をモデルパラメータよりも先に分布させることでどのように表現するかは明らかではない。
我々は、データセットごとのアモートされた変分推論を実行する方法を紹介した。
このユニークなモデルにより、ベイズニューラルネットワークの挙動を、十分に特定された事前条件下で研究することができる。
論文 参考訳(メタデータ) (2026-02-09T15:24:07Z) - Inference-Time Alignment in Diffusion Models with Reward-Guided Generation: Tutorial and Review [59.856222854472605]
このチュートリアルは、拡散モデルにおける下流の報酬関数を最適化するための推論時ガイダンスとアライメント方法に関する詳細なガイドを提供する。
生物学のような分野における実践的な応用は、しばしば特定の指標を最大化するサンプル生成を必要とする。
本稿では,(1)推論時と組み合わせた微調整手法,(2)モンテカルロ木探索などの探索アルゴリズムに基づく推論時アルゴリズム,(3)言語モデルと拡散モデルにおける推論時アルゴリズムの接続について論じる。
論文 参考訳(メタデータ) (2025-01-16T17:37:35Z) - Flow-based Sampling for Entanglement Entropy and the Machine Learning of Defects [38.18440341418837]
生成モデルを用いて格子量子場理論におけるR'enyiエンタンジメントエントロピーを数値計算する新しい手法を提案する。
本稿では,2つのレプリカを接続する格子欠陥を取り巻くニューラルネットワークアーキテクチャを用いて,フローベースのアプローチとレプリカのトリックを組み合わせる方法について述べる。
論文 参考訳(メタデータ) (2024-10-18T13:51:25Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - Applied Causal Inference Powered by ML and AI [54.88868165814996]
本書は古典的構造方程式モデル(SEM)とその現代AI等価性、有向非巡回グラフ(DAG)および構造因果モデル(SCM)のアイデアを提示する。
それは、現代の予測ツールを使用して、そのようなモデルで推論を行うダブル/デバイアスド機械学習メソッドをカバーしている。
論文 参考訳(メタデータ) (2024-03-04T20:28:28Z) - Bayesian neural networks via MCMC: a Python-based tutorial [0.196629787330046]
変分推論とマルコフ連鎖モンテカルロサンプリング法を用いてベイズ推定を行う。
このチュートリアルはPythonのコードに、その使用と拡張を可能にするデータとインストラクションを提供する。
論文 参考訳(メタデータ) (2023-04-02T02:19:15Z) - Classified as unknown: A novel Bayesian neural network [0.0]
完全連結ニューラルネットワークのための効率の良いベイズ学習アルゴリズムを開発した。
多層パーセプトロンから多層パーセプトロンへの二元分類のための単一パーセプトロンのアルゴリズムを一般化する。
論文 参考訳(メタデータ) (2023-01-31T04:27:09Z) - Bayesian Learning for Neural Networks: an algorithmic survey [95.42181254494287]
この自己完結型調査は、ベイズ学習ニューラルネットワークの原理とアルゴリズムを読者に紹介する。
アクセシブルで実践的な視点からこのトピックを紹介します。
論文 参考訳(メタデータ) (2022-11-21T21:36:58Z) - BayesCap: Bayesian Identity Cap for Calibrated Uncertainty in Frozen
Neural Networks [50.15201777970128]
本研究では,凍結モデルに対するベイズIDマッピングを学習し,不確実性の推定を可能にするBayesCapを提案する。
BayesCapは、元のデータセットのごく一部でトレーニングできる、メモリ効率のよいメソッドである。
本稿では,多種多様なアーキテクチャを用いた多種多様なタスクに対する本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-07-14T12:50:09Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - Multilevel Bayesian Deep Neural Networks [0.5892638927736115]
我々は、ディープニューラルネットワーク(DNN)、特にトレースクラスニューラルネットワーク(TNN)に関連付けられた推論について検討する。
TNN事前は無限個の隠れ単位を持つ関数上で定義され、有限個の隠れ単位を持つ強い収束近似を持つ。
本稿では,TNNの強い収束を利用して,これらのモデルにマルチレベルモンテカルロ(MLMC)を適用する。
論文 参考訳(メタデータ) (2022-03-24T09:49:27Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Priors in Bayesian Deep Learning: A Review [4.020523898765405]
ベイズ深層学習における事前選択の重要性を強調する。
本稿では, (深い) ガウス過程, 変分オートエンコーダ, ベイズニューラルネットワークに対して提案されている, 様々な前処理について概説する。
論文 参考訳(メタデータ) (2021-05-14T14:53:30Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Bayesian graph convolutional neural networks via tempered MCMC [0.41998444721319217]
畳み込みニューラルネットワークのようなディープラーニングモデルは、画像やマルチメディアタスクに長い間適用されてきた。
最近では、グラフで表現できる非構造化データにもっと注意が払われている。
これらのタイプのデータは、健康と医学、ソーシャルネットワーク、および研究データリポジトリでよく見られます。
論文 参考訳(メタデータ) (2021-04-17T04:03:25Z) - A Survey on Deep Semi-supervised Learning [51.26862262550445]
まず,既存の手法を分類した深層半指導学習の分類法を提案する。
次に、損失の種類、貢献度、アーキテクチャの違いの観点から、これらのメソッドを詳細に比較します。
論文 参考訳(メタデータ) (2021-02-28T16:22:58Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - On Resource-Efficient Bayesian Network Classifiers and Deep Neural
Networks [14.540226579203207]
ベイズネットワーク(BN)分類器の複雑さを低減するための2つの方法を提案する。
まず、ストレートスルー勾配推定器を用いてBNのパラメータを数ビットに量子化する量子化学習を導入する。
第2に、モデルサイズも考慮し、最近提案された微分可能な木強化ナイーブベイズ (TAN) 構造学習手法を拡張した。
論文 参考訳(メタデータ) (2020-10-22T14:47:55Z) - Information Theoretic Meta Learning with Gaussian Processes [74.54485310507336]
情報理論の概念,すなわち相互情報と情報のボトルネックを用いてメタ学習を定式化する。
相互情報に対する変分近似を用いることで、メタ学習のための汎用的かつトラクタブルな枠組みを導出する。
論文 参考訳(メタデータ) (2020-09-07T16:47:30Z) - Disentangling the Gauss-Newton Method and Approximate Inference for
Neural Networks [96.87076679064499]
我々は一般化されたガウスニュートンを解き、ベイズ深層学習の近似推論を行う。
ガウス・ニュートン法は基礎となる確率モデルを大幅に単純化する。
ガウス過程への接続は、新しい関数空間推論アルゴリズムを可能にする。
論文 参考訳(メタデータ) (2020-07-21T17:42:58Z) - Amortized Bayesian Inference for Models of Cognition [0.1529342790344802]
専門的なニューラルネットワークアーキテクチャを用いたシミュレーションベース推論の最近の進歩は、ベイズ近似計算の多くの過去の問題を回避している。
本稿では,アモータイズされたベイズパラメータの推定とモデル比較について概説する。
論文 参考訳(メタデータ) (2020-05-08T08:12:15Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。