論文の概要: Unpaired Image-to-Image Translation via Neural Schr\"odinger Bridge
- arxiv url: http://arxiv.org/abs/2305.15086v3
- Date: Sat, 2 Mar 2024 12:47:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 21:05:17.852462
- Title: Unpaired Image-to-Image Translation via Neural Schr\"odinger Bridge
- Title(参考訳): Neural Schr\"odinger Bridgeによる未ペア画像変換
- Authors: Beomsu Kim, Gihyun Kwon, Kwanyoung Kim, Jong Chul Ye
- Abstract要約: 本稿では,SB問題を表すUnpaired Neural Schr"odinger Bridge (UNSB)を提案する。
UNSBはスケーラブルで、様々な未ペアI2I翻訳タスクをうまく解決する。
- 参考スコア(独自算出の注目度): 70.79973551604539
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models are a powerful class of generative models which simulate
stochastic differential equations (SDEs) to generate data from noise. While
diffusion models have achieved remarkable progress, they have limitations in
unpaired image-to-image (I2I) translation tasks due to the Gaussian prior
assumption. Schr\"{o}dinger Bridge (SB), which learns an SDE to translate
between two arbitrary distributions, have risen as an attractive solution to
this problem. Yet, to our best knowledge, none of SB models so far have been
successful at unpaired translation between high-resolution images. In this
work, we propose Unpaired Neural Schr\"{o}dinger Bridge (UNSB), which expresses
the SB problem as a sequence of adversarial learning problems. This allows us
to incorporate advanced discriminators and regularization to learn a SB between
unpaired data. We show that UNSB is scalable and successfully solves various
unpaired I2I translation tasks. Code: \url{https://github.com/cyclomon/UNSB}
- Abstract(参考訳): 拡散モデルは、確率微分方程式(SDE)をシミュレートしてノイズからデータを生成する強力な生成モデルである。
拡散モデルは目覚ましい進歩を遂げているが、ガウスの前提により、未ペア画像対像(I2I)翻訳タスクに制限がある。
任意の2つの分布を変換するSDEを学習するSchr\"{o}dinger Bridge (SB)は、この問題に対する魅力的な解決策として浮上している。
しかし、われわれの知る限りでは、これまでのSBモデルは高解像度画像間の非ペア翻訳に成功していない。
本研究では,sb問題を逆学習問題の列として表現するunpaired neural schr\"{o}dinger bridge (unsb)を提案する。
これにより、高度な識別器と正規化を組み込んで、障害のないデータ間でSBを学ぶことができる。
UNSBは拡張性があり、様々な未ペアI2I翻訳タスクの解決に成功している。
コード: \url{https://github.com/cyclomon/UNSB}
関連論文リスト
- Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Denoising Diffusion Bridge Models [54.87947768074036]
拡散モデルは、プロセスを使用してデータにノイズをマッピングする強力な生成モデルである。
画像編集のような多くのアプリケーションでは、モデル入力はランダムノイズではない分布から来る。
本研究では, DDBM(Denoising Diffusion Bridge Models)を提案する。
論文 参考訳(メタデータ) (2023-09-29T03:24:24Z) - DiffDis: Empowering Generative Diffusion Model with Cross-Modal
Discrimination Capability [75.9781362556431]
本稿では,拡散過程下での1つのフレームワークに,モダクティブと差別的事前学習を統一するDiffDisを提案する。
DiffDisは画像生成タスクと画像テキスト識別タスクの両方において単一タスクモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T05:03:48Z) - Building the Bridge of Schr\"odinger: A Continuous Entropic Optimal
Transport Benchmark [96.06787302688595]
提案手法は, 基本真理 OT 解が構成によって知られている確率分布のペアを作成する方法である。
これらのベンチマークペアを使用して、既存のニューラルネットワーク EOT/SB ソルバが実際に EOT ソリューションをどれだけよく計算しているかをテストする。
論文 参考訳(メタデータ) (2023-06-16T20:03:36Z) - UVCGAN v2: An Improved Cycle-Consistent GAN for Unpaired Image-to-Image
Translation [10.689788782893096]
I2I (unpaired image-to-image) 翻訳技術は、完全に教師なしの方法で2つのデータ領域間のマッピングを求める。
DMはFrechet distance(FID)の観点からI2I翻訳ベンチマークの最先端を保っている
この研究は、最近のUVCGANモデルを改善し、モデルアーキテクチャとトレーニング手順の近代化に資する。
論文 参考訳(メタデータ) (2023-03-28T19:46:34Z) - I$^2$SB: Image-to-Image Schr\"odinger Bridge [87.43524087956457]
Image-to-Image Schr"odinger Bridge (I$2$SB) は条件拡散モデルの新しいクラスである。
I$2$SB は、2つの与えられた分布間の非線形拡散過程を直接学習する。
I$2$SBは、より解釈可能な生成過程を持つ標準条件拡散モデルを超えることを示す。
論文 参考訳(メタデータ) (2023-02-12T08:35:39Z) - What the DAAM: Interpreting Stable Diffusion Using Cross Attention [39.97805685586423]
大規模拡散ニューラルネットワークは、テキスト・画像生成において重要なマイルストーンである。
説明可能性の欠如と解釈可能性の分析は、主にプロプライエタリでクローズドソースな性質のため、理解に乏しいままである。
本稿では,潜伏するサブネットワークにおけるクロスアテンションアクティベーションのアップスケーリングと集約に基づく新しい手法であるDAAMを提案する。
DAAMは,61.0のmIoUを達成し,キャプション生成画像に対して強く作用し,オープン語彙セグメンテーションにおける教師付きモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-10T17:55:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。