論文の概要: Three Forms of Stochastic Injection for Improved Distribution-to-Distribution Generative Modeling
- arxiv url: http://arxiv.org/abs/2510.06634v1
- Date: Wed, 08 Oct 2025 04:36:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.294078
- Title: Three Forms of Stochastic Injection for Improved Distribution-to-Distribution Generative Modeling
- Title(参考訳): 分布分配生成モデルの改善のための確率射出の3形態
- Authors: Shiye Su, Yuhui Zhang, Linqi Zhou, Rajesh Ranganath, Serena Yeung-Levy,
- Abstract要約: フローマッチングは任意のデータ分散間の変換をモデル化するための自然なフレームワークを提供する。
本稿では,ソースサンプルとフロー補間剤を摂動させることにより,学習過程に摂動を注入する,シンプルで効率的な手法を提案する。
提案手法は,入力と生成されたサンプル間の輸送コストを低減し,変換の真の効果をより強調する。
- 参考スコア(独自算出の注目度): 40.63772844645927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modeling transformations between arbitrary data distributions is a fundamental scientific challenge, arising in applications like drug discovery and evolutionary simulation. While flow matching offers a natural framework for this task, its use has thus far primarily focused on the noise-to-data setting, while its application in the general distribution-to-distribution setting is underexplored. We find that in the latter case, where the source is also a data distribution to be learned from limited samples, standard flow matching fails due to sparse supervision. To address this, we propose a simple and computationally efficient method that injects stochasticity into the training process by perturbing source samples and flow interpolants. On five diverse imaging tasks spanning biology, radiology, and astronomy, our method significantly improves generation quality, outperforming existing baselines by an average of 9 FID points. Our approach also reduces the transport cost between input and generated samples to better highlight the true effect of the transformation, making flow matching a more practical tool for simulating the diverse distribution transformations that arise in science.
- Abstract(参考訳): 任意のデータ分布間の変換をモデル化することは、薬物発見や進化シミュレーションといった応用から生じる基本的な科学的課題である。
フローマッチングはこのタスクに自然なフレームワークを提供するが、これまでは主にノイズ・ツー・データ設定に重点を置いてきた。
後者の場合、ソースが限られたサンプルから学習するデータ分布でもある場合、監督不足のため、標準的なフローマッチングは失敗する。
そこで本研究では,ソースサンプルとフロー補間剤を摂動することにより,学習過程に確率性を注入する,シンプルで効率的な手法を提案する。
生物,放射線学,天文学にまたがる5つの多様な画像処理タスクにおいて,本手法は生成品質を著しく向上させ,既存のベースラインを平均9FIDポイントで上回った。
提案手法は, 入力と生成サンプル間の輸送コストを低減し, 変換の真の効果をより強調し, 流れマッチングを科学における多様な分布変換をシミュレートするための, より実用的なツールとする。
関連論文リスト
- DeFoG: Discrete Flow Matching for Graph Generation [45.037260759871124]
DeFoGは、トレーニングからサンプリングをアンタングルするグラフ生成フレームワークである。
本稿では,性能を著しく向上し,必要な精錬工程数を削減できる新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T18:52:54Z) - Generative Assignment Flows for Representing and Learning Joint Distributions of Discrete Data [2.6499018693213316]
離散確率変数の結合確率分布の表現のための新しい生成モデルを提案する。
このアプローチでは、分解分布の統計部分多様体上のランダム化代入フローによる測度輸送を用いる。
論文 参考訳(メタデータ) (2024-06-06T21:58:33Z) - On the Trajectory Regularity of ODE-based Diffusion Sampling [79.17334230868693]
拡散に基づく生成モデルは微分方程式を用いて、複素データ分布と抽出可能な事前分布の間の滑らかな接続を確立する。
本稿では,拡散モデルのODEに基づくサンプリングプロセスにおいて,いくつかの興味深い軌道特性を同定する。
論文 参考訳(メタデータ) (2024-05-18T15:59:41Z) - Improved off-policy training of diffusion samplers [93.66433483772055]
本研究では,非正規化密度やエネルギー関数を持つ分布からサンプルを抽出する拡散モデルの訓練問題について検討する。
シミュレーションに基づく変分法や非政治手法など,拡散構造推論手法のベンチマークを行った。
我々の結果は、過去の研究の主張に疑問を投げかけながら、既存のアルゴリズムの相対的な利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-07T18:51:49Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Uncertainty quantification and out-of-distribution detection using
surjective normalizing flows [46.51077762143714]
本稿では,深層ニューラルネットワークモデルにおける分布外データセットの探索的正規化フローを用いた簡単なアプローチを提案する。
本手法は, 流通外データと流通内データとを確実に識別できることを示す。
論文 参考訳(メタデータ) (2023-11-01T09:08:35Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - The Score-Difference Flow for Implicit Generative Modeling [1.1929584800629673]
Inlicit Generative Modelingは、対象データ分布と一致する合成データのサンプルを作成することを目的としている。
最近の研究は、合成音源データをターゲット分布へプッシュする観点から、IGG問題にアプローチしている。
任意のターゲット分布とソース分布のスコア差を,Kulback-Leibler分散を最適に低減するフローとして提示する。
論文 参考訳(メタデータ) (2023-04-25T15:21:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。