論文の概要: Generalization Analysis for Bayesian Optimal Experiment Design under Model Misspecification
- arxiv url: http://arxiv.org/abs/2506.07805v1
- Date: Mon, 09 Jun 2025 14:33:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.996361
- Title: Generalization Analysis for Bayesian Optimal Experiment Design under Model Misspecification
- Title(参考訳): モデルミス種別に基づくベイズ最適実験設計の一般化解析
- Authors: Roubing Tang, Sabina J. Sloman, Samuel Kaski,
- Abstract要約: 薬物発見や臨床試験のような科学や産業の多くの分野では、時間と予算の制約の下で実験を設計することが中心的な課題である。
トレーニング中、BOEDは事前に決定された取得基準に従って入力を選択する。
テスト中、トレーニング中に学んだモデルは、自然に発生するテストサンプルの分布に遭遇する。
- 参考スコア(独自算出の注目度): 17.957364289876548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many settings in science and industry, such as drug discovery and clinical trials, a central challenge is designing experiments under time and budget constraints. Bayesian Optimal Experimental Design (BOED) is a paradigm to pick maximally informative designs that has been increasingly applied to such problems. During training, BOED selects inputs according to a pre-determined acquisition criterion. During testing, the model learned during training encounters a naturally occurring distribution of test samples. This leads to an instance of covariate shift, where the train and test samples are drawn from different distributions. Prior work has shown that in the presence of model misspecification, covariate shift amplifies generalization error. Our first contribution is to provide a mathematical decomposition of generalization error that reveals key contributors to generalization error in the presence of model misspecification. We show that generalization error under misspecification is the result of, in addition to covariate shift, a phenomenon we term error (de-)amplification which has not been identified or studied in prior work. Our second contribution is to provide a detailed empirical analysis to show that methods that result in representative and de-amplifying training data increase generalization performance. Our third contribution is to develop a novel acquisition function that mitigates the effects of model misspecification by including a term for representativeness and implicitly inducing de-amplification. Our experimental results demonstrate that our method outperforms traditional BOED in the presence of misspecification.
- Abstract(参考訳): 薬物発見や臨床試験のような科学や産業の多くの分野では、時間と予算の制約の下で実験を設計することが中心的な課題である。
ベイズ最適実験設計(英: Bayesian Optimal Experimental Design, BOED)は、そのような問題にますます適用されつつある最大情報設計を選択するパラダイムである。
トレーニング中、BOEDは事前に決定された取得基準に従って入力を選択する。
テスト中、トレーニング中に学んだモデルは、自然に発生するテストサンプルの分布に遭遇する。
これは共変量シフト(covariate shift)のインスタンスにつながり、列車とテストサンプルは異なる分布から引き出される。
以前の研究は、モデルミススペクテーションの存在下では、共変量シフトは一般化誤差を増幅することを示した。
最初のコントリビューションは一般化誤差の数学的分解を提供することで、モデル不特定性の存在下での一般化誤差に対する重要なコントリビュータを明らかにする。
誤特定下での一般化誤差は、共変量シフトに加えて、先行研究で特定または研究されていない誤り(de-)増幅(de-)と呼ぶ現象の結果であることを示す。
第2のコントリビューションは、トレーニングデータの表現および非増幅による一般化性能の向上を示すための詳細な実験分析を提供することである。
第3のコントリビューションは、表現力の項を含ませ、非増幅を暗黙的に誘発することで、モデル不特定の影響を緩和する新規な獲得機能を開発することである。
実験の結果,本手法は誤識別の有無で従来のBOEDよりも優れていた。
関連論文リスト
- Causal Lifting of Neural Representations: Zero-Shot Generalization for Causal Inferences [56.23412698865433]
予測型因果推論(PPCI)に焦点をあてる
PPCIは、未ラベルの事実結果を用いた対象実験における治療効果を推定し、事前訓練されたモデルからゼロショットを取得する。
バニラ実験的リスク最小化によって解決不可能なインスタンスに対するソリューションを提供するため,本手法を合成および実世界の科学的データに対して検証する。
論文 参考訳(メタデータ) (2025-02-10T10:52:17Z) - Mixstyle-Entropy: Domain Generalization with Causal Intervention and Perturbation [38.97031630265987]
ドメイン一般化(DG)は、ドメイン関連情報に依存しない表現を学習することでこの問題を解決し、未知の環境への外挿を容易にする。
既存のアプローチは典型的には、ソースデータから共有された特徴を抽出するための調整済みのトレーニング目標の定式化に重点を置いている。
InPerという因果性に基づく新しいフレームワークを提案する。これは、訓練中の因果的介入と試験中の因果的摂動を組み込むことにより、モデル一般化を強化するために設計された。
論文 参考訳(メタデータ) (2024-08-07T07:54:19Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Simultaneous inference for generalized linear models with unmeasured confounders [0.0]
本稿では,構造を利用して線形射影を3つの重要な段階に統合する,統一的な統計的推定と推測の枠組みを提案する。
サンプルおよび応答サイズとして$z$-testsの効果的なType-Iエラー制御が無限大に近づくことを示す。
論文 参考訳(メタデータ) (2023-09-13T18:53:11Z) - Covariate Shift in High-Dimensional Random Feature Regression [44.13449065077103]
共変量シフトは、堅牢な機械学習モデルの開発において重要な障害である。
現代の機械学習の文脈における理論的理解を示す。
論文 参考訳(メタデータ) (2021-11-16T05:23:28Z) - TsmoBN: Interventional Generalization for Unseen Clients in Federated
Learning [23.519212374186232]
本研究では,分散学習パラダイムにおけるモデル一般化の課題を説明するために,学習構造因果モデル(SCM)を構築した。
FLモデルをテストクライアントに一般化するために,テスト固有および運動量追跡バッチ正規化(TsmoBN)を用いた簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-10-19T13:46:37Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。