論文の概要: Calibrating Generative Models
- arxiv url: http://arxiv.org/abs/2510.10020v1
- Date: Sat, 11 Oct 2025 04:49:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.738796
- Title: Calibrating Generative Models
- Title(参考訳): 生成モデルの校正
- Authors: Henry D. Smith, Nathaniel L. Diamant, Brian L. Trippe,
- Abstract要約: キャリブレーションを制約付き最適化問題とし,キャリブレーション制約を満たすKulback-Leibler分散の最も近いモデルを求める。
これらの手法により、最大10億のパラメータを持つ数百の同時制約とモデルに対するキャリブレーション誤差を大幅に低減できることを示す。
- 参考スコア(独自算出の注目度): 2.7855886538423182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models frequently suffer miscalibration, wherein class probabilities and other statistics of the sampling distribution deviate from desired values. We frame calibration as a constrained optimization problem and seek the closest model in Kullback-Leibler divergence satisfying calibration constraints. To address the intractability of imposing these constraints exactly, we introduce two surrogate objectives for fine-tuning: (1) the relax loss, which replaces the constraint with a miscalibration penalty, and (2) the reward loss, which converts calibration into a reward fine-tuning problem. We demonstrate that these approaches substantially reduce calibration error across hundreds of simultaneous constraints and models with up to one billion parameters, spanning applications in protein design, image generation, and language modeling.
- Abstract(参考訳): 生成モデルはしばしば、クラス確率やその他のサンプリング分布の統計値が望ましい値から逸脱する、誤校正に悩まされる。
キャリブレーションを制約付き最適化問題とし,キャリブレーション制約を満たすKulback-Leibler分散の最も近いモデルを求める。
これらの制約を正確に課すことの難しさに対処するために,(1) 制約を誤校正刑に置き換える緩和損失,(2) キャリブレーションを報酬微調整問題に変換する報酬損失の2つの補助目標を導入する。
これらの手法により、最大10億のパラメータを持つ数百の同時制約とモデルに対するキャリブレーション誤差を大幅に低減し、タンパク質設計、画像生成、言語モデリングにおける適用範囲を広げることを示した。
関連論文リスト
- Orthogonal Causal Calibration [55.28164682911196]
我々は、因果校正作業を標準(非因果予測モデル)の校正作業に還元する一般的なアルゴリズムを開発する。
以上の結果から,既存のキャリブレーションアルゴリズムを因果的設定に応用できることが示唆された。
論文 参考訳(メタデータ) (2024-06-04T03:35:25Z) - Distribution-Free Model-Agnostic Regression Calibration via
Nonparametric Methods [9.662269016653296]
予測モデルの量子化を特徴付けるための個別キャリブレーションの目的について考察する。
既存の方法はほとんどなく、個々のキャリブレーションに関して統計的な保証が欠如している。
基礎となる予測モデルに依存しない単純な非パラメトリックキャリブレーション法を提案する。
論文 参考訳(メタデータ) (2023-05-20T21:31:51Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - Training Normalizing Flows with the Precision-Recall Divergence [73.92251251511199]
特定精度リコールトレードオフを達成することは、em PR-divergencesと呼ぶ家族からの-divergencesの最小化に相当することを示す。
本稿では, 正規化フローをトレーニングして, 偏差を最小化し, 特に, 所与の高精度リコールトレードオフを実現する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2023-02-01T17:46:47Z) - Modular Conformal Calibration [80.33410096908872]
回帰における再校正のためのアルゴリズムを多種多様なクラスで導入する。
このフレームワークは、任意の回帰モデルをキャリブレーションされた確率モデルに変換することを可能にする。
我々は17の回帰データセットに対するMCCの実証的研究を行った。
論文 参考訳(メタデータ) (2022-06-23T03:25:23Z) - Quantile Regularization: Towards Implicit Calibration of Regression
Models [30.872605139672086]
2つのCDF間の累積KL分散として定義される新しい量子正規化器に基づく回帰モデルの校正法を提案する。
提案手法は,Dropout VI や Deep Ensembles といった手法を用いて学習した回帰モデルのキャリブレーションを大幅に改善することを示す。
論文 参考訳(メタデータ) (2020-02-28T16:53:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。