論文の概要: Streamlining Prediction in Bayesian Deep Learning
- arxiv url: http://arxiv.org/abs/2411.18425v1
- Date: Wed, 27 Nov 2024 15:07:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:25:52.302120
- Title: Streamlining Prediction in Bayesian Deep Learning
- Title(参考訳): ベイズ深層学習におけるストリーム化予測
- Authors: Rui Li, Marcus Klasson, Arno Solin, Martin Trapp,
- Abstract要約: 本研究は, サンプリング不要な単一前方通過によるBDLの合理化予測について検討する。
我々は、後続の予測分布に対する近似を解析的に計算する。
本稿では,ViT や GPT-2 などのトランスフォーマーにアプローチを示し,その性能を回帰および分類タスクで評価する。
- 参考スコア(独自算出の注目度): 16.061370232443988
- License:
- Abstract: The rising interest in Bayesian deep learning (BDL) has led to a plethora of methods for estimating the posterior distribution. However, efficient computation of inferences, such as predictions, has been largely overlooked with Monte Carlo integration remaining the standard. In this work we examine streamlining prediction in BDL through a single forward pass without sampling. For this we use local linearisation on activation functions and local Gaussian approximations at linear layers. Thus allowing us to analytically compute an approximation to the posterior predictive distribution. We showcase our approach for both MLP and transformers, such as ViT and GPT-2, and assess its performance on regression and classification tasks.
- Abstract(参考訳): ベイズ深層学習(BDL)への関心が高まり、後部分布を推定する多くの手法が導かれた。
しかし、予測のような推論の効率的な計算はモンテカルロ積分が標準のままであるので、ほとんど見過ごされている。
本研究は, サンプリング不要な単一前方通過によるBDLの合理化予測について検討する。
このために、活性化関数に対する局所線型化と、線型層における局所ガウス近似を用いる。
これにより、後続の予測分布に対する近似を解析的に計算できる。
我々は,VTやGPT-2のようなMLPとトランスフォーマーの両方に対するアプローチを示し,その性能を回帰および分類タスクで評価する。
関連論文リスト
- Hessian-Free Laplace in Bayesian Deep Learning [44.16006844888796]
Hessian-free Laplace (HFL)近似は、その分散を推定するために、ログ後部とネットワーク予測の両方の曲率を使用する。
ベイズ深層学習におけるLAの標準的な仮定の下では、HFLはLAと同じ分散を目標とし、事前学習されたネットワークで効率よく再生可能であることを示す。
論文 参考訳(メタデータ) (2024-03-15T20:47:39Z) - Training normalizing flows with computationally intensive target
probability distributions [0.018416014644193065]
本稿では,REINFORCEアルゴリズムに基づく流れの正規化のための推定器を提案する。
ウォールタイムでは最大10倍高速で、最大30%のメモリを必要とする。
論文 参考訳(メタデータ) (2023-08-25T10:40:46Z) - Provable and Practical: Efficient Exploration in Reinforcement Learning via Langevin Monte Carlo [104.9535542833054]
我々は、強化学習のためのトンプソンサンプリングに基づくスケーラブルで効果的な探索戦略を提案する。
代わりに、Langevin Monte Carlo を用いて、Q 関数をその後部分布から直接サンプリングする。
提案手法は,Atari57スイートからのいくつかの挑戦的な探索課題において,最先端の深部RLアルゴリズムと比較して,より優れた,あるいは類似した結果が得られる。
論文 参考訳(メタデータ) (2023-05-29T17:11:28Z) - Distributional Reinforcement Learning with Dual Expectile-Quantile Regression [51.87411935256015]
分布RLに対する量子レグレッションアプローチは、任意の戻り分布を柔軟かつ効果的に学習する方法を提供する。
我々は,分布保証が消えることを示し,推定分布が急速に崩壊して平均推定値が崩壊することを実証的に観察する。
提案手法は,$L$の学習効率を生かして,返却分布の予測値と量子化値とを協調的に学習し,返却分布の完全な分布を推定し,効率的な学習を可能にするものである。
論文 参考訳(メタデータ) (2023-05-26T12:30:05Z) - Langevin Monte Carlo for Contextual Bandits [72.00524614312002]
Langevin Monte Carlo Thompson Sampling (LMC-TS) が提案されている。
提案アルゴリズムは,文脈的帯域幅の特別な場合において,最高のトンプソンサンプリングアルゴリズムと同じサブ線形残差を達成できることを示す。
論文 参考訳(メタデータ) (2022-06-22T17:58:23Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - The Bayesian Method of Tensor Networks [1.7894377200944511]
ネットワークのベイズ的枠組みを2つの観点から検討する。
本研究では,2次元合成データセットにおけるモデルパラメータと決定境界を可視化することにより,ネットワークのベイズ特性について検討する。
論文 参考訳(メタデータ) (2021-01-01T14:59:15Z) - Understanding Variational Inference in Function-Space [20.940162027560408]
この設定で、Kullback-Leiblerの発散を利用する際の利点と制限を強調します。
近似品質を直接測定する関数空間推論手法のベンチマークとしてベイズ線形回帰法を提案する。
論文 参考訳(メタデータ) (2020-11-18T17:42:01Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。