論文の概要: Augmented Bridge Matching
- arxiv url: http://arxiv.org/abs/2311.06978v1
- Date: Sun, 12 Nov 2023 22:42:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 16:04:52.877553
- Title: Augmented Bridge Matching
- Title(参考訳): 拡張ブリッジマッチング
- Authors: Valentin De Bortoli, Guan-Horng Liu, Tianrong Chen, Evangelos A.
Theodorou, Weilie Nie
- Abstract要約: フローとブリッジマッチングのプロセスは、任意のデータ分布の間を補間することができる。
マッチングプロセスの簡単な変更により,速度場を増大させることで,この結合が回復することを示す。
画像翻訳タスクの混合学習における拡張の効率について説明する。
- 参考スコア(独自算出の注目度): 32.668433085737036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Flow and bridge matching are a novel class of processes which encompass
diffusion models. One of the main aspect of their increased flexibility is that
these models can interpolate between arbitrary data distributions i.e. they
generalize beyond generative modeling and can be applied to learning stochastic
(and deterministic) processes of arbitrary transfer tasks between two given
distributions. In this paper, we highlight that while flow and bridge matching
processes preserve the information of the marginal distributions, they do
\emph{not} necessarily preserve the coupling information unless additional,
stronger optimality conditions are met. This can be problematic if one aims at
preserving the original empirical pairing. We show that a simple modification
of the matching process recovers this coupling by augmenting the velocity field
(or drift) with the information of the initial sample point. Doing so, we lose
the Markovian property of the process but preserve the coupling information
between distributions. We illustrate the efficiency of our augmentation in
learning mixture of image translation tasks.
- Abstract(参考訳): フローとブリッジマッチングは拡散モデルを包含する新しいプロセスのクラスである。
柔軟性の向上の大きな側面の1つは、これらのモデルが任意のデータ分布間を補間できる、すなわち、生成的モデリングを超えて一般化し、2つの与えられた分布間の任意の転送タスクの確率的(および決定論的)過程の学習に適用できることである。
本稿では, 流れとブリッジマッチングのプロセスが限界分布の情報を保持する一方で, より強固な最適性条件を満たさない限り, 必ずしも結合情報を保存できないことを強調する。
これは、元の経験的ペアリングを保存しようとすると問題となる。
一致するプロセスの簡単な変更により,初期試料点の情報と速度場(あるいはドリフト)を増大させることで,この結合を回復することを示す。
そのため、プロセスのマルコフ的性質は失われるが、分布間のカップリング情報は保持される。
画像翻訳タスクの混合学習における拡張の効率について説明する。
関連論文リスト
- Information-Theoretic Proofs for Diffusion Sampling [13.095978794717007]
本稿では, 拡散法に基づくジェネレーティブ・モデリング手法の基本的, 自己完結型分析法を提案する。
拡散ステップサイズが十分に小さい場合、サンプリング分布はターゲット分布に確実に近いことを示す。
また,各ステップに追加のランダム性を導入して,比較過程における高次モーメントに一致させることにより,収束を促進させる方法についての透過的なビューを提供する。
論文 参考訳(メタデータ) (2025-02-04T13:19:21Z) - Flow Matching: Markov Kernels, Stochastic Processes and Transport Plans [1.9766522384767222]
フローマッチング技術は、逆問題の解決に利用できる。
逆問題の解法として,フローマッチングが有効であることを示す。
本稿では,連続正規化フローとスコアマッチング手法について簡潔に述べる。
論文 参考訳(メタデータ) (2025-01-28T10:28:17Z) - Flowing from Words to Pixels: A Framework for Cross-Modality Evolution [14.57591222028278]
クロスモーダルフローマッチングのための汎用的でシンプルなフレームワークであるCrossFlowを提案する。
本稿では、入力データに変分法を適用することの重要性を示し、フリーガイダンスを実現する方法を提案する。
また,本手法の一般化可能性を示すため,CrossFlowは多種多様なクロスモーダル/イントラモーダルマッピングタスクの最先端性に匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-12-19T18:59:56Z) - A Complete Decomposition of KL Error using Refined Information and Mode Interaction Selection [11.994525728378603]
我々は高次モード相互作用に着目したログ線形モデルの古典的定式化を再考する。
学習した分布は、実際に利用可能な有限量のデータをより効率的に利用することができる。
論文 参考訳(メタデータ) (2024-10-15T18:08:32Z) - InterHandGen: Two-Hand Interaction Generation via Cascaded Reverse Diffusion [53.90516061351706]
両手インタラクションに先立って生成を学習する新しいフレームワークであるInterHandGenを提案する。
サンプリングにアンチペネティフィケーションと合成フリーガイダンスを組み合わせることで、プラウシブルな生成を可能にする。
本手法は, 妥当性と多様性の観点から, ベースライン生成モデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2024-03-26T06:35:55Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Structural Pruning for Diffusion Models [65.02607075556742]
Diff-Pruningは、既存のものから軽量拡散モデルの学習に適した効率的な圧縮手法である。
複数のデータセットにまたがって実施した経験的評価は,提案手法の2つの利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-05-18T12:38:21Z) - Kernel-Whitening: Overcome Dataset Bias with Isotropic Sentence
Embedding [51.48582649050054]
符号化文の特徴間の相関関係を解消する表現正規化手法を提案する。
またNystromカーネル近似法であるKernel-Whiteningを提案する。
実験により,Kernel-Whiteningは分布内精度を維持しつつ,分布外データセット上でのBERTの性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2022-10-14T05:56:38Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - Robust model training and generalisation with Studentising flows [22.757298187704745]
本稿では、ロバストな(特に耐性のある)統計からの洞察に基づいて、これらの手法をさらに改善する方法について論じる。
本稿では, ガウス分布の簡易なドロップイン置換として, 太い尾の潜伏分布を持つフローベースモデルを提案する。
いくつかの異なるデータセットの実験により、提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2020-06-11T16:47:01Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。