論文の概要: Bayesian Additive Distribution Regression
- arxiv url: http://arxiv.org/abs/2603.06462v1
- Date: Fri, 06 Mar 2026 16:49:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.273301
- Title: Bayesian Additive Distribution Regression
- Title(参考訳): Bayesian Additive Distribution Regression
- Authors: Antonio R. Linero, Soumyabrata Bose, Jared Murray,
- Abstract要約: 線形関数として回帰関数をモデル化する非パラメトリックな分散回帰手法であるDistBARTを導入する。
合成および実データ、理論的には適応的な後部濃度結果によりこれを実証的に示す。
また、カーネルメソッドへの接続を確立し、この接続を使って非線形関数を学習できるDistBARTの変種を動機付けます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distribution regression, where the goal is to predict a scalar response from a distribution-valued predictor, arises naturally in settings where observations are grouped and outcomes depend on group-level characteristics rather than on individual measurements. We introduce DistBART, a Bayesian nonparametric approach to distribution regression that models the regression function as a linear functional with the Riesz representer assigned a Bayesian additive regression trees (BART) prior. We argue that shallow decision tree ensembles encode reasonable inductive biases for tabular data, making them appropriate in settings where the functional depends primarily on low-dimensional marginals of the distributions. We show this both empirically on synthetic and real data and theoretically through an adaptive posterior concentration result. We also establish connections to kernel methods, and use this connection to motivate variants of DistBART that can learn nonlinear functionals. To enable scalability to large datasets, we develop a random-feature approximation that samples trees from the BART prior and reduces inference to sparse Bayesian linear regression, achieving computational efficiency while retaining uncertainty quantification.
- Abstract(参考訳): 分布回帰は、分布値予測器からスカラー応答を予測することを目的としており、観察結果がグループ化され、結果が個々の測定値よりもグループレベルの特性に依存するような環境で自然に発生する。
本稿では, 回帰関数を線形汎関数としてモデル化し, ベイズ加法回帰木 (BART) を予め割り当てた分布回帰に対する非パラメトリックアプローチであるDistBARTを紹介する。
浅い決定木アンサンブルは、表形式のデータに対して合理的な帰納バイアスを符号化し、関数が主に分布の低次元の辺りに依存するような環境で適切であると主張する。
合成データと実データの両方に経験的かつ理論的に,適応的な後部濃度結果を通してこれを示す。
また、カーネルメソッドへの接続を確立し、この接続を使って非線形関数を学習できるDistBARTの変種を動機付けます。
大規模データセットへのスケーラビリティを実現するため,BARTから木を事前にサンプリングし,不確実な定量化を維持しながら計算効率を向上し,疎ベイズ線形回帰の推論を低減したランダム・フィーチャー近似を開発した。
関連論文リスト
- Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Likelihood-Free Adaptive Bayesian Inference via Nonparametric Distribution Matching [2.0319002824093015]
本稿では,従来のデータ空間の相違を回避したフレームワークであるAdaptive Bayesian Inference (ABI)を提案する。
ABIは、後続分布間のばらつきを測定する問題を、条件付き量子レグレッションタスクのトラクタブルシーケンスに変換する。
ABIはデータベースであるWasserstein, 要約ベースABC, 最先端の可能性のないシミュレータを著しく上回っていることを実証する。
論文 参考訳(メタデータ) (2025-05-07T17:50:14Z) - Functional BART with Shape Priors: A Bayesian Tree Approach to Constrained Functional Regression [4.649377644958316]
本稿では,FBART(Functional BART)と呼ばれる非パラメトリックベイズ法を提案する。
効率的な後部推論を容易にするため,カスタマイズしたベイズバックフィッティングアルゴリズムを開発した。
形状事前の使用は、後続のサンプルが指定された機能的制約を尊重することを保証します。
論文 参考訳(メタデータ) (2025-02-24T06:38:53Z) - Progression: an extrapolation principle for regression [0.0]
本稿では,新しい統計外挿原理を提案する。
これは、予測器とトレーニング予測器のサンプルの境界における応答との単純な関係を仮定する。
我々の半パラメトリック法である進行法は、この外挿原理を活用し、トレーニングデータ範囲を超えた近似誤差の保証を提供する。
論文 参考訳(メタデータ) (2024-10-30T17:29:51Z) - Data-Driven Influence Functions for Optimization-Based Causal Inference [105.5385525290466]
統計的汎関数に対するガトー微分を有限差分法で近似する構成的アルゴリズムについて検討する。
本研究では,確率分布を事前知識がないが,データから推定する必要がある場合について検討する。
論文 参考訳(メタデータ) (2022-08-29T16:16:22Z) - Density Estimation with Autoregressive Bayesian Predictives [1.5771347525430772]
密度推定の文脈では、標準的なベイズ的アプローチは、後方予測をターゲットとする。
我々は、データを潜在空間にマッピングする自己回帰ニューラルネットワークを用いて、帯域幅の新たなパラメータ化を開発する。
論文 参考訳(メタデータ) (2022-06-13T20:43:39Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Which Invariance Should We Transfer? A Causal Minimax Learning Approach [18.71316951734806]
本稿では、因果的観点からの包括的ミニマックス分析について述べる。
最小の最悪のリスクを持つサブセットを探索する効率的なアルゴリズムを提案する。
本手法の有効性と有効性は, 合成データとアルツハイマー病の診断で実証された。
論文 参考訳(メタデータ) (2021-07-05T09:07:29Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z) - On Low-rank Trace Regression under General Sampling Distribution [9.699586426043885]
クロスバリデード推定器は一般仮定でほぼ最適誤差境界を満たすことを示す。
また, クロスバリデーション推定器はパラメータ選択理論に着想を得た手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2019-04-18T02:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。