論文の概要: Incorporating Pre-trained Diffusion Models in Solving the Schrödinger Bridge Problem
- arxiv url: http://arxiv.org/abs/2508.18095v1
- Date: Mon, 25 Aug 2025 14:56:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.830486
- Title: Incorporating Pre-trained Diffusion Models in Solving the Schrödinger Bridge Problem
- Title(参考訳): シュレーディンガー橋問題の解法における事前学習拡散モデルの導入
- Authors: Zhicong Tang, Tiankai Hang, Shuyang Gu, Dong Chen, Baining Guo,
- Abstract要約: IMM(Iterative Proportional Mean-Matching)、IPTM(Iterative Proportional Terminus-Matching)、IPFM(Iterative Proportional Flow-Matching)
事前訓練されたSGMを使用してSBベースのモデルを効果的に訓練する新しい初期化戦略。
大規模な実験により提案手法の有効性と改善が示された。
- 参考スコア(独自算出の注目度): 24.258114034494827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to unify Score-based Generative Models (SGMs), also known as Diffusion models, and the Schr\"odinger Bridge (SB) problem through three reparameterization techniques: Iterative Proportional Mean-Matching (IPMM), Iterative Proportional Terminus-Matching (IPTM), and Iterative Proportional Flow-Matching (IPFM). These techniques significantly accelerate and stabilize the training of SB-based models. Furthermore, the paper introduces novel initialization strategies that use pre-trained SGMs to effectively train SB-based models. By using SGMs as initialization, we leverage the advantages of both SB-based models and SGMs, ensuring efficient training of SB-based models and further improving the performance of SGMs. Extensive experiments demonstrate the significant effectiveness and improvements of the proposed methods. We believe this work contributes to and paves the way for future research on generative models.
- Abstract(参考訳): 本稿では,拡散モデル(Diffusion model)としても知られるスコアベース生成モデル(SGM)とShr\"odinger Bridge(SB)問題(IPMM),Iterative Proportional Terminus-Matching(IPTM),Iterative Proportional Flow-Matching(IPFM)の3つの再パラメータ化手法を用いて,SGMを統一することを目的とする。
これらの技術はSBベースのモデルのトレーニングを著しく加速し、安定化させる。
さらに,事前学習したSGMを用いてSBモデルを効果的に訓練する新しい初期化戦略を提案する。
SGM を初期化として,SB モデルと SGM モデルの両方の利点を活用し,SB モデルの効率的なトレーニングを確実にし,SGM の性能をさらに向上させる。
大規模な実験により提案手法の有効性と改善が示された。
この研究は、将来の生成モデルの研究に貢献し、道を開いたと我々は信じている。
関連論文リスト
- Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Simplified Diffusion Schrödinger Bridge [24.492662903341966]
本稿では,拡散シュル「オーディンガー橋 (DSB) の新規な簡易化について紹介する。
これは複雑なデータ生成におけるDSBの限界に対処し、より高速な収束と性能向上を可能にする。
論文 参考訳(メタデータ) (2024-03-21T17:59:41Z) - Learning Energy-Based Models by Cooperative Diffusion Recovery Likelihood [64.95663299945171]
高次元データに基づくエネルギーベースモデル(EBM)の訓練は、困難かつ時間を要する可能性がある。
EBMと、GANや拡散モデルのような他の生成フレームワークとの間には、サンプル品質に顕著なギャップがある。
本研究では,協調拡散回復可能性 (CDRL) を提案する。
論文 参考訳(メタデータ) (2023-09-10T22:05:24Z) - Improving Transferability of Adversarial Examples via Bayesian Attacks [84.90830931076901]
モデル入力にベイズ定式化を組み込むことにより,モデル入力とモデルパラメータの共分散を可能にする新しい拡張を導入する。
提案手法は,トランスファーベース攻撃に対する新たな最先端技術を実現し,ImageNetとCIFAR-10の平均成功率をそれぞれ19.14%,2.08%向上させる。
論文 参考訳(メタデータ) (2023-07-21T03:43:07Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Likelihood Training of Schr\"odinger Bridge using Forward-Backward SDEs
Theory [29.82841891919951]
SBの最適化原理が深層生成モデルの近代的な訓練と関係しているかどうかは不明である。
本稿では、フォワード・バックワード理論に基づくSBモデルの可能性トレーニングのための新しい計算フレームワークを提案する。
その結果,MNIST,CelebA,CIFAR10上でのリアルな画像生成に比較した結果が得られた。
論文 参考訳(メタデータ) (2021-10-21T17:18:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。