論文の概要: How Much Data Is Enough? Uniform Convergence Bounds for Generative & Vision-Language Models under Low-Dimensional Structure
- arxiv url: http://arxiv.org/abs/2512.23109v1
- Date: Sun, 28 Dec 2025 23:16:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.362853
- Title: How Much Data Is Enough? Uniform Convergence Bounds for Generative & Vision-Language Models under Low-Dimensional Structure
- Title(参考訳): データの量はどれくらいか?低次元構造下における生成・視覚言語モデルのための一様収束境界
- Authors: Paul M. Thompson,
- Abstract要約: 現代の生成的・視覚言語モデル(VLM)は、科学的・医学的な意思決定支援にますます利用されている。
適度なデータを持つ強い経験的結果にもかかわらず、そのような予測が入力、クラス、サブポピュレーションにわたって均一に一般化されるのかどうかは不明である。
我々は、この疑問を有限サンプルの観点から研究し、次のように問いかける: 構造的仮定の下で、VLMベースの予測器は、実用的なサンプルサイズで均一に正確で校正された振る舞いを達成できるのか?
- 参考スコア(独自算出の注目度): 1.560394526607184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern generative and vision-language models (VLMs) are increasingly used in scientific and medical decision support, where predicted probabilities must be both accurate and well calibrated. Despite strong empirical results with moderate data, it remains unclear when such predictions generalize uniformly across inputs, classes, or subpopulations, rather than only on average-a critical issue in biomedicine, where rare conditions and specific groups can exhibit large errors even when overall loss is low. We study this question from a finite-sample perspective and ask: under what structural assumptions can generative and VLM-based predictors achieve uniformly accurate and calibrated behavior with practical sample sizes? Rather than analyzing arbitrary parameterizations, we focus on induced families of classifiers obtained by varying prompts or semantic embeddings within a restricted representation space. When model outputs depend smoothly on a low-dimensional semantic representation-an assumption supported by spectral structure in text and joint image-text embeddings-classical uniform convergence tools yield meaningful non-asymptotic guarantees. Our main results give finite-sample uniform convergence bounds for accuracy and calibration functionals of VLM-induced classifiers under Lipschitz stability with respect to prompt embeddings. The implied sample complexity depends on intrinsic/effective dimension, not ambient embedding dimension, and we further derive spectrum-dependent bounds that make explicit how eigenvalue decay governs data requirements. We conclude with implications for data-limited biomedical modeling, including when current dataset sizes can support uniformly reliable predictions and why average calibration metrics may miss worst-case miscalibration.
- Abstract(参考訳): 現代の生成的および視覚言語モデル(VLM)は、予測確率が正確かつ適切に校正されなければならない科学的および医学的な決定支援にますます利用されている。
適度なデータによる強い経験的結果にもかかわらず、このような予測が入力、クラス、サブ集団にわたって均一に一般化されるのかどうかは不明であり、全体の損失が低い場合でも、まれな条件や特定のグループが大きなエラーを生じさせるようなバイオメディシンにおける平均的な問題に限らない。
我々は、この疑問を有限サンプルの観点から研究し、次のように問いかける: 構造的仮定の下で、VLMベースの予測器は、実用的なサンプルサイズで均一に正確で校正された振る舞いを達成できるのか?
任意のパラメータ化を解析する代わりに、制限された表現空間内に様々なプロンプトやセマンティック埋め込みによって得られる分類器の帰納的なファミリーに焦点を当てる。
モデル出力が低次元意味表現-テキストのスペクトル構造と結合画像-テキスト埋め込み-古典的一様収束ツールで支持される仮定にスムーズに依存すると、意味のある非漸近的保証が得られる。
本研究の主な成果は,VLMにより誘導されるリプシッツ安定性下の分類器の精度と校正関数に対する有限サンプル一様収束境界を与えることである。
インプリッドサンプルの複雑さは、内在的/有効次元に依存し、周囲の埋め込み次元ではなく、固有値崩壊がデータ要求をどのように支配するかを明確にするスペクトル依存境界を導出する。
例えば、現在のデータセットサイズが一様に信頼性のある予測をサポート可能な場合や、平均校正基準が最悪のケースの誤校正を見逃す場合などである。
関連論文リスト
- Gradient Boosted Mixed Models: Flexible Joint Estimation of Mean and Variance Components for Clustered Data [0.6361348748202732]
Gradient Boosted Mixed Models (GBMixed)は、平均成分と分散成分を共同で見積もるために強化を拡張するフレームワークとアルゴリズムである。
シミュレーションと実世界の応用は、分散成分の正確な回復、キャリブレーションされた予測間隔、予測精度の改善を示す。
論文 参考訳(メタデータ) (2025-10-31T19:28:26Z) - Generalization error of min-norm interpolators in transfer learning [2.7309692684728617]
最小ノルム補間器は、現代の機械学習アルゴリズムの暗黙の正規化限界として自然に現れる。
多くのアプリケーションでは、トレーニング中に限られた量のテストデータが利用できるが、この設定におけるmin-normの特性は十分に理解されていない。
我々はこれらの特徴を達成するために、新しい異方性局所法を確立した。
論文 参考訳(メタデータ) (2024-06-20T02:23:28Z) - Quantifying predictive uncertainty of aphasia severity in stroke patients with sparse heteroscedastic Bayesian high-dimensional regression [47.1405366895538]
高次元データに対する疎線型回帰法は、通常、残留物が一定の分散を持つと仮定するが、これは実際には破ることができる。
本稿では,ヘテロセダスティック分割経験的ベイズ期待条件最大化アルゴリズムを用いて,高次元ヘテロセダスティック線形回帰モデルを推定する。
論文 参考訳(メタデータ) (2023-09-15T22:06:29Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - An Epistemic and Aleatoric Decomposition of Arbitrariness to Constrain the Set of Good Models [7.620967781722717]
最近の研究では、機械学習(ML)モデルがトレーニング手順の微妙な変更に対して非常に敏感であることが示されている。
安定性は, てんかん成分と動脈成分に分解され, 予測の一貫性と信頼性を捉える。
そこで本研究では,既存の精度と公平性の基準と合わせて,てんかんおよび失読の基準を含むモデル選択手法を提案し,良質なモデルの集合を絞り込むことに成功したことを示す。
論文 参考訳(メタデータ) (2023-02-09T09:35:36Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Optimal regularizations for data generation with probabilistic graphical
models [0.0]
経験的に、よく調和された正規化スキームは、推論されたモデルの品質を劇的に改善する。
生成的ペアワイドグラフィカルモデルの最大Aポストエリオーリ(MAP)推論におけるL2とL1の正規化について検討する。
論文 参考訳(メタデータ) (2021-12-02T14:45:16Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z) - Is completeness necessary? Estimation in nonidentified linear models [0.0]
我々は高次元リッジ正規化、勾配降下、主成分分析(PCA)などの手法を含む正規化推定器の理論を開発する。
結果は高次元および非パラメトリックな機器変数回帰に対して説明され、シミュレーション実験によって支持される。
論文 参考訳(メタデータ) (2017-09-11T16:49:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。