論文の概要: Vector Quantized Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2207.13286v1
- Date: Wed, 27 Jul 2022 04:22:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:20:46.387376
- Title: Vector Quantized Image-to-Image Translation
- Title(参考訳): ベクトル量子化画像変換
- Authors: Yu-Jie Chen, Shin-I Cheng, Wei-Chen Chiu, Hung-Yu Tseng, Hsin-Ying Lee
- Abstract要約: 本稿では,ベクトル量子化手法を画像から画像への変換フレームワークに導入することを提案する。
我々のフレームワークは、最新の画像から画像への変換や画像拡張手法に匹敵する性能を実現している。
- 参考スコア(独自算出の注目度): 31.65282783830092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current image-to-image translation methods formulate the task with
conditional generation models, leading to learning only the recolorization or
regional changes as being constrained by the rich structural information
provided by the conditional contexts. In this work, we propose introducing the
vector quantization technique into the image-to-image translation framework.
The vector quantized content representation can facilitate not only the
translation, but also the unconditional distribution shared among different
domains. Meanwhile, along with the disentangled style representation, the
proposed method further enables the capability of image extension with
flexibility in both intra- and inter-domains. Qualitative and quantitative
experiments demonstrate that our framework achieves comparable performance to
the state-of-the-art image-to-image translation and image extension methods.
Compared to methods for individual tasks, the proposed method, as a unified
framework, unleashes applications combining image-to-image translation,
unconditional generation, and image extension altogether. For example, it
provides style variability for image generation and extension, and equips
image-to-image translation with further extension capabilities.
- Abstract(参考訳): 現在の画像から画像への変換法は条件生成モデルを用いてタスクを定式化し、条件コンテキストによって提供されるリッチな構造情報によって制約されるように、再色や局所的な変化のみを学習する。
本稿では,画像から画像への変換フレームワークにベクトル量子化手法を導入することを提案する。
ベクトル量子化コンテンツ表現は、翻訳だけでなく、異なる領域間で共有される無条件分布も促進することができる。
一方,提案手法では,領域内および領域間の両方において,画像拡張を柔軟に行うことが可能となった。
定性的かつ定量的な実験により、我々のフレームワークは最新の画像から画像への変換や画像拡張手法に匹敵する性能を発揮することを示した。
個々のタスクの手法と比較すると,提案手法は統一フレームワークとして,画像から画像への変換,無条件生成,画像拡張を併用したアプリケーションを解き放つ。
例えば、画像生成と拡張のためのスタイル変数を提供し、画像から画像への変換にさらなる拡張機能を提供する。
関連論文リスト
- Improving Diffusion-based Image Translation using Asymmetric Gradient
Guidance [51.188396199083336]
非対称勾配法の適用により拡散サンプリングの逆過程を導出する手法を提案する。
我々のモデルの適応性は、画像融合モデルと潜時拡散モデルの両方で実装できる。
実験により,本手法は画像翻訳タスクにおいて,様々な最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-07T12:56:56Z) - Conditional Score Guidance for Text-Driven Image-to-Image Translation [52.73564644268749]
本稿では,事前訓練されたテキスト・画像拡散モデルに基づく,テキスト駆動型画像・画像変換のための新しいアルゴリズムを提案する。
本手法は,ソース画像の関心領域を選択的に編集することで,対象画像を生成することを目的とする。
論文 参考訳(メタデータ) (2023-05-29T10:48:34Z) - Variational Bayesian Framework for Advanced Image Generation with
Domain-Related Variables [29.827191184889898]
先進条件生成問題に対する統一ベイズ的枠組みを提案する。
本稿では,複数の画像翻訳および編集作業が可能な変分ベイズ画像翻訳ネットワーク(VBITN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T09:47:23Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Separating Content and Style for Unsupervised Image-to-Image Translation [20.44733685446886]
教師なしのイメージ・ツー・イメージ翻訳は、2つの視覚領域間のマッピングを未ペアのサンプルで学習することを目的としている。
統合されたフレームワークでコンテンツコードとスタイルコードを同時に分離することを提案する。
潜在機能と高レベルのドメイン不変タスクの相関から,提案手法は優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-27T12:56:50Z) - Unbalanced Feature Transport for Exemplar-based Image Translation [51.54421432912801]
本稿では,画像翻訳における条件入力とスタイルの類似点間の特徴的アライメントに最適なトランスポートを組み込んだ一般画像翻訳フレームワークを提案する。
本手法は,最先端技術と比較して質的,定量的に優れた画像翻訳を実現する。
論文 参考訳(メタデータ) (2021-06-19T12:07:48Z) - Multiple GAN Inversion for Exemplar-based Image-to-Image Translation [0.0]
実例に基づく画像-画像変換のための複数GANインバージョンを提案する。
提案するMultiple GAN Inversionは,階層数選択における自己決定アルゴリズムによる人間の介入を回避する。
実験結果から,提案手法の利点を既存の最先端の画像画像変換法と比較した。
論文 参考訳(メタデータ) (2021-03-26T13:46:14Z) - Style Intervention: How to Achieve Spatial Disentanglement with
Style-based Generators? [100.60938767993088]
任意の入力画像に適応し、フレキシブルな目的の下で自然な翻訳効果をレンダリングできる軽量な最適化アルゴリズムを提案する。
フォトリアリズムと一貫性の両方を必要とする高解像度画像の顔属性編集において,提案するフレームワークの性能を検証する。
論文 参考訳(メタデータ) (2020-11-19T07:37:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。