論文の概要: Generation Properties of Stochastic Interpolation under Finite Training Set
- arxiv url: http://arxiv.org/abs/2509.21925v1
- Date: Fri, 26 Sep 2025 06:13:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.222301
- Title: Generation Properties of Stochastic Interpolation under Finite Training Set
- Title(参考訳): 有限トレーニングセットにおける確率補間の生成特性
- Authors: Yunchen Li, Shaohui Lin, Zhou Yu,
- Abstract要約: 規則的な条件下では、決定論的生成過程はトレーニングサンプルを正確に回収し、生成過程は追加のノイズを伴うトレーニングサンプルとして現れる。
提案手法は,推定誤差が存在する場合,一様雑音とガウス雑音の混合によるトレーニングサンプルの凸結合を効果的に生成することを示した。
- 参考スコア(独自算出の注目度): 28.505356058958125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the theoretical behavior of generative models under finite training populations. Within the stochastic interpolation generative framework, we derive closed-form expressions for the optimal velocity field and score function when only a finite number of training samples are available. We demonstrate that, under some regularity conditions, the deterministic generative process exactly recovers the training samples, while the stochastic generative process manifests as training samples with added Gaussian noise. Beyond the idealized setting, we consider model estimation errors and introduce formal definitions of underfitting and overfitting specific to generative models. Our theoretical analysis reveals that, in the presence of estimation errors, the stochastic generation process effectively produces convex combinations of training samples corrupted by a mixture of uniform and Gaussian noise. Experiments on generation tasks and downstream tasks such as classification support our theory.
- Abstract(参考訳): 本稿では,有限集団における生成モデルの理論的挙動について検討する。
確率補間生成フレームワーク内では,有限個のトレーニングサンプルが利用できる場合に,最適速度場とスコア関数の閉形式式を導出する。
いくつかの規則性条件下では、決定論的生成過程はトレーニングサンプルを正確に復元し、確率的生成過程はガウス雑音を付加したトレーニングサンプルとして現れることを示した。
理想的な設定の他に、モデル推定誤差を考慮し、生成モデルに特有な過度な適合と過度な適合の形式的定義を導入する。
理論的解析により,推定誤差の存在下では,一様雑音とガウス雑音の混合により劣化したトレーニングサンプルの凸結合を,確率的生成法により効果的に生成することが明らかとなった。
生成タスクや,分類などの下流タスクの実験は,我々の理論を支持している。
関連論文リスト
- When and how can inexact generative models still sample from the data manifold? [2.4664553878979185]
スコア関数やドリフトベクトル場における学習誤差にもかかわらず、生成されたサンプルはデータ分布の支持を強調させるが、それから強調しないように見える。
我々は、上のリャプノフベクトルとデータ多様体の境界に沿った接空間とのアライメントがロバスト性をもたらすことを示す。
論文 参考訳(メタデータ) (2025-08-11T03:24:34Z) - Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts [64.34482582690927]
事前学習したスコアベースモデルから得られた熱処理, 幾何平均, 製品分布の配列から, 効率的かつ原理的に抽出する方法を提供する。
本稿では,サンプリング品質を向上させるために,推論時間スケーリングを利用する逐次モンテカルロ(SMC)再サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-04T17:46:51Z) - May the Noise be with you: Adversarial Training without Adversarial
Examples [3.4673556247932225]
我々は、敵の訓練を受けずに敵の訓練を受けたモデルを得ることができるかという疑問を調査する。
提案手法は,訓練時にNNモデルの層にガウス雑音を埋め込むことによって固有性を取り入れる。
我々の研究は、全く異なるアプローチで敵の訓練を受けたネットワークに貢献し、敵の訓練と経験的に類似した堅牢性を持つ。
論文 参考訳(メタデータ) (2023-12-12T08:22:28Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Diffusing Gaussian Mixtures for Generating Categorical Data [21.43283907118157]
本稿では,高品質なサンプル生成に着目した拡散モデルに基づく分類データの生成モデルを提案する。
評価手法は、分類データを生成するための異なる生成モデルの能力と限界を強調した。
論文 参考訳(メタデータ) (2023-03-08T14:55:32Z) - Modeling Temporal Data as Continuous Functions with Stochastic Process
Diffusion [2.2849153854336763]
時間データは、基礎となる関数の離散化測定と見なすことができる。
このようなデータの生成モデルを構築するには、そのデータを管理するプロセスをモデル化する必要があります。
本稿では,関数空間における微分拡散モデルを定義することで解を提案する。
論文 参考訳(メタデータ) (2022-11-04T17:02:01Z) - On the Inherent Regularization Effects of Noise Injection During
Training [12.614901374282868]
本稿では,学習データに人工雑音を注入することに対応する無作為摂動の一方法に関する理論的研究について述べる。
このようなランダム摂動学習問題の訓練と一般化誤差をランダム特徴モデル上で高精度に評価する。
論文 参考訳(メタデータ) (2021-02-15T07:43:18Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Improving Maximum Likelihood Training for Text Generation with Density
Ratio Estimation [51.091890311312085]
本稿では,テキスト生成で遭遇する大規模なサンプル空間において,効率よく安定な自動回帰シーケンス生成モデルのトレーニング手法を提案する。
本手法は,品質と多様性の両面で,最大類似度推定や他の最先端シーケンス生成モデルよりも安定に優れている。
論文 参考訳(メタデータ) (2020-07-12T15:31:24Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。