論文の概要: Function-Space Empirical Bayes Regularisation with Large Vision-Language Model Priors
- arxiv url: http://arxiv.org/abs/2602.03119v1
- Date: Tue, 03 Feb 2026 05:24:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.258904
- Title: Function-Space Empirical Bayes Regularisation with Large Vision-Language Model Priors
- Title(参考訳): 大規模視覚言語モデルを用いた関数空間経験ベイズ正規化
- Authors: Pengcheng Hao, Huaze Tang, Ercan Engin Kuruoglu, Wenbo Ding,
- Abstract要約: VLM-FS-EBは、新しい関数空間経験的ベイズ正規化フレームワークである。
提案手法は予測性能を継続的に改善し,信頼性の高い不確実性推定値が得られることを示す。
- 参考スコア(独自算出の注目度): 12.285161219785294
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Bayesian deep learning (BDL) provides a principled framework for reliable uncertainty quantification by combining deep neural networks with Bayesian inference. A central challenge in BDL lies in the design of informative prior distributions that scale effectively to high-dimensional data. Recent functional variational inference (VI) approaches address this issue by imposing priors directly in function space; however, most existing methods rely on Gaussian process (GP) priors, whose expressiveness and generalisation capabilities become limited in high-dimensional regimes. In this work, we propose VLM-FS-EB, a novel function-space empirical Bayes regularisation framework, leveraging large vision-language models (VLMs) to generates semantically meaningful context points. These synthetic samples are then used VLMs for embeddings to construct expressive functional priors. Furthermore, the proposed method is evaluated against various baselines, and experimental results demonstrate that our method consistently improves predictive performance and yields more reliable uncertainty estimates, particularly in out-of-distribution (OOD) detection tasks and data-scarce regimes.
- Abstract(参考訳): ベイジアンディープラーニング(BDL)は、ディープニューラルネットワークとベイジアン推論を組み合わせることによって、信頼性の高い不確実性定量化のための原則化されたフレームワークを提供する。
BDLにおける中心的な課題は、高次元データに効果的にスケールする情報的事前分布の設計にある。
近年の機能的変動推論 (VI) のアプローチでは、関数空間に直接事前を付与することでこの問題に対処するが、既存の手法の多くはガウス過程 (GP) の先行に頼っており、その表現性や一般化能力は高次元の体系において制限される。
本研究では,機能空間の実証的ベイズ正規化フレームワークであるVLM-FS-EBを提案する。
これらの合成サンプルは、表現機能前駆体を構築するために、埋め込みにVLMを使用する。
さらに,提案手法は様々なベースラインに対して評価され,提案手法は予測性能を継続的に改善し,特にアウト・オブ・ディストリビューション(OOD)検出タスクやデータスカース方式において,信頼性の高い不確実性推定値が得られることを示した。
関連論文リスト
- Latent Chain-of-Thought for Visual Reasoning [53.541579327424046]
大型視覚言語モデル(LVLM)の解釈可能性および信頼性向上には,チェーン・オブ・シント(CoT)推論が不可欠である
我々は,LVLMにおける推論を後部推論として再構成し,償却変分推論に基づくスケーラブルなトレーニングアルゴリズムを提案する。
提案手法は,7つの推論ベンチマークにおいて,最先端のLVLMを強化することを実証的に実証する。
論文 参考訳(メタデータ) (2025-10-27T23:10:06Z) - Bayesian Neural Scaling Law Extrapolation with Prior-Data Fitted Networks [100.13335639780415]
スケーリング法則は、しばしばパワーローに従っており、より大きなスケールでのスケーリングの振る舞いを予測するために、パワーロー関数のいくつかの変種を提案した。
既存の手法は主に点推定に依存しており、現実のアプリケーションにとって欠かせない不確実性を定量化しない。
本研究では,ニューラルスケーリング法外挿のためのPFNに基づくベイズフレームワークについて検討する。
論文 参考訳(メタデータ) (2025-05-29T03:19:17Z) - Implicit Generative Prior for Bayesian Neural Networks [8.013264410621357]
複雑なデータ構造のための新しいニューラルネットワーク型経験ベイズ(NA-EB)フレームワークを提案する。
NA-EBフレームワークは変分推論と勾配上昇アルゴリズムを組み合わせたものである。
各種タスクの広範囲な評価を通じて,本フレームワークの実践的応用を実証する。
論文 参考訳(メタデータ) (2024-04-27T21:00:38Z) - Beyond Deep Ensembles: A Large-Scale Evaluation of Bayesian Deep
Learning under Distribution Shift [19.945634052291542]
我々は、WILDSコレクションから現実のデータセットに対する最新のBDLアルゴリズムを評価し、難解な分類と回帰タスクを含む。
我々は、大規模な、畳み込み、トランスフォーマーベースのニューラルネットワークアーキテクチャにおいて、アルゴリズムを比較した。
そこで本研究では,BDLを用いた大規模事前学習モデルのシステム評価を行った。
論文 参考訳(メタデータ) (2023-06-21T14:36:03Z) - Validation Diagnostics for SBI algorithms based on Normalizing Flows [55.41644538483948]
本研究は,NFに基づく多次元条件(後)密度推定器の検証診断を容易にすることを提案する。
また、局所的な一貫性の結果に基づいた理論的保証も提供する。
この作業は、より良い特定モデルの設計を支援したり、新しいSBIアルゴリズムの開発を促進するのに役立つだろう。
論文 参考訳(メタデータ) (2022-11-17T15:48:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。