論文の概要: laplax -- Laplace Approximations with JAX
- arxiv url: http://arxiv.org/abs/2507.17013v1
- Date: Tue, 22 Jul 2025 20:49:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.77078
- Title: laplax -- Laplace Approximations with JAX
- Title(参考訳): laplax -- JAX による遅延近似
- Authors: Tobias Weber, Bálint Mucsányi, Lenard Rommel, Thomas Christie, Lars Kasüschke, Marvin Pförtner, Philipp Hennig,
- Abstract要約: laplaxはオープンソースのPythonパッケージで、jaxでLaplace近似を実行する。
laplaxは、迅速なプロトタイピングと実験のためのフレキシブルで研究者に優しいフレームワークを提供する。
- 参考スコア(独自算出の注目度): 19.981986732650824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Laplace approximation provides a scalable and efficient means of quantifying weight-space uncertainty in deep neural networks, enabling the application of Bayesian tools such as predictive uncertainty and model selection via Occam's razor. In this work, we introduce laplax, a new open-source Python package for performing Laplace approximations with jax. Designed with a modular and purely functional architecture and minimal external dependencies, laplax offers a flexible and researcher-friendly framework for rapid prototyping and experimentation. Its goal is to facilitate research on Bayesian neural networks, uncertainty quantification for deep learning, and the development of improved Laplace approximation techniques.
- Abstract(参考訳): ラプラス近似は、ディープニューラルネットワークにおける重量空間の不確実性を定量化するスケーラブルで効率的な手段を提供し、予測の不確実性やオッカムのカミソリによるモデル選択などのベイズツールの適用を可能にする。
この作業では、jaxでLaplace近似を実行するためのオープンソースのPythonパッケージである laplaxを紹介します。
laplaxはモジュール的で純粋に機能的なアーキテクチャと最小限の外部依存関係で設計されており、高速なプロトタイピングと実験のための柔軟で研究者フレンドリなフレームワークを提供する。
その目標は、ベイズニューラルネットワークの研究、ディープラーニングのための不確実性定量化、および改善されたラプラス近似技術の開発を促進することである。
関連論文リスト
- Bayesian Neural Scaling Law Extrapolation with Prior-Data Fitted Networks [100.13335639780415]
スケーリング法則は、しばしばパワーローに従っており、より大きなスケールでのスケーリングの振る舞いを予測するために、パワーロー関数のいくつかの変種を提案した。
既存の手法は主に点推定に依存しており、現実のアプリケーションにとって欠かせない不確実性を定量化しない。
本研究では,ニューラルスケーリング法外挿のためのPFNに基づくベイズフレームワークについて検討する。
論文 参考訳(メタデータ) (2025-05-29T03:19:17Z) - Simulation-based inference with the Python Package sbijax [0.7499722271664147]
sbijaxは、ニューラルネットワークベースの推論に様々な最先端のメソッドを実装するPythonパッケージである。
このパッケージはベイズ近似計算の機能を提供し、モデル診断を計算し、自動的に要約統計を推定する。
論文 参考訳(メタデータ) (2024-09-28T18:47:13Z) - Exploratory Preference Optimization: Harnessing Implicit Q*-Approximation for Sample-Efficient RLHF [82.7679132059169]
人間のフィードバックから強化学習が言語モデルのアライメントのための中心的なツールとして登場した。
我々は、RLHFにおけるオンライン探索のための新しいアルゴリズム、Exploratory Preference Optimization (XPO)を提案する。
XPOは証明可能な最強の保証と有望な経験的パフォーマンスを享受しています。
論文 参考訳(メタデータ) (2024-05-31T17:39:06Z) - Model-aware reinforcement learning for high-performance Bayesian experimental design in quantum metrology [0.4999814847776097]
量子センサは、様々なパラメータにわたる実験者による操作を可能にすることで、推定中に制御の柔軟性を提供する。
量子力学、推定、仮説テストにおいて、幅広い問題を最適化できる汎用的な手順を導入する。
粒子フィルタリングに基づくモデル認識強化学習(RL)とベイズ推定を組み合わせた。
論文 参考訳(メタデータ) (2023-12-28T12:04:15Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - A deep learning based surrogate model for stochastic simulators [0.0]
シミュレータのための深層学習に基づく代理モデルを提案する。
我々は損失関数として条件付き最大平均誤差(CMMD)を利用する。
その結果,提案手法の優れた性能が得られた。
論文 参考訳(メタデータ) (2021-10-24T11:38:47Z) - Approximate Bayesian Optimisation for Neural Networks [6.921210544516486]
モデル選択の重要性を強調するために、機械学習アルゴリズムを自動化するための一連の作業が行われた。
理想主義的な方法で解析的トラクタビリティと計算可能性を解決する必要性は、効率と適用性を確保することを可能にしている。
論文 参考訳(メタデータ) (2021-08-27T19:03:32Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Bayesian Optimization Meets Laplace Approximation for Robotic
Introspection [41.117361086267806]
本稿では,Deep Neural Networks(DNN)をよりイントロスペクティブにするために,スケーラブルなLaplace Approximation (LA)技術を導入する。
特に,本論文では,真の重み付け後部を過小評価する傾向を緩和する新しいベイズ最適化(BO)アルゴリズムを提案する。
提案するフレームワークは,大規模データセットやアーキテクチャにまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T09:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。