論文の概要: CoMoGAN: continuous model-guided image-to-image translation
- arxiv url: http://arxiv.org/abs/2103.06879v1
- Date: Thu, 11 Mar 2021 18:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:59:43.372124
- Title: CoMoGAN: continuous model-guided image-to-image translation
- Title(参考訳): CoMoGAN:連続モデル誘導画像-画像変換
- Authors: Fabio Pizzati, Pietro Cerri, Raoul de Charette
- Abstract要約: CoMoGAN は、函数多様体上の対象データの教師なし再編成に依存する連続 GAN である。
本稿では,対象多様体上の位置から画像コンテンツを分離する新しい機能的インスタンス正規化層と残留機構を提案する。
- 参考スコア(独自算出の注目度): 14.087944269230293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CoMoGAN is a continuous GAN relying on the unsupervised reorganization of the
target data on a functional manifold. To that matter, we introduce a new
Functional Instance Normalization layer and residual mechanism, which together
disentangle image content from position on target manifold. We rely on naive
physics-inspired models to guide the training while allowing private
model/translations features. CoMoGAN can be used with any GAN backbone and
allows new types of image translation, such as cyclic image translation like
timelapse generation, or detached linear translation. On all datasets and
metrics, it outperforms the literature. Our code is available at
http://github.com/cv-rits/CoMoGAN .
- Abstract(参考訳): CoMoGAN は、函数多様体上の対象データの教師なし再編成に依存する連続 GAN である。
そこで本研究では,対象多様体上の位置から画像を分離する新たな機能的インスタンス正規化層と残差機構について紹介する。
我々は、プライベートモデル/翻訳機能を許容しながらトレーニングをガイドするために、素直な物理モデルに依存しています。
CoMoGANは、任意のGANバックボーンで使用でき、タイムラプス生成のような周期的な画像翻訳、または分離された線形翻訳など、新しいタイプの画像翻訳を可能にします。
すべてのデータセットとメトリクスで、文献よりも優れています。
コードはhttp://github.com/cv-rits/CoMoGAN で入手できます。
関連論文リスト
- Towards Zero-Shot Multimodal Machine Translation [64.9141931372384]
本稿では,マルチモーダル機械翻訳システムの学習において,完全教師付きデータの必要性を回避する手法を提案する。
我々の手法はZeroMMTと呼ばれ、2つの目的の混合で学習することで、強いテキストのみの機械翻訳(MT)モデルを適応させることである。
本手法が完全に教師付きトレーニングデータを持たない言語に一般化されることを証明するため,CoMMuTE評価データセットをアラビア語,ロシア語,中国語の3言語に拡張した。
論文 参考訳(メタデータ) (2024-07-18T15:20:31Z) - StegoGAN: Leveraging Steganography for Non-Bijective Image-to-Image Translation [18.213286385769525]
CycleGANベースの手法は、生成した画像のミスマッチした情報を隠して、サイクル一貫性の目的をバイパスすることが知られている。
本稿では,ステガノグラフィーを利用した新しいモデルであるStegoGANを紹介した。
我々のアプローチは、追加の後処理や監督を必要とすることなく、翻訳画像のセマンティック一貫性を高める。
論文 参考訳(メタデータ) (2024-03-29T12:23:58Z) - Generalized Consistency Trajectory Models for Image Manipulation [59.576781858809355]
拡散モデル(DM)は、画像編集や復元などの応用と同様に、無条件生成において優れている。
本研究の目的は、一般化されたCTM(GCTM)を提案することによって、整合性軌道モデル(CTM)の完全なポテンシャルを解放することである。
本稿では,GCTMの設計空間について論じ,画像から画像への変換,復元,編集など,様々な画像操作タスクにおいて有効性を示す。
論文 参考訳(メタデータ) (2024-03-19T07:24:54Z) - Instance Segmentation of Unlabeled Modalities via Cyclic Segmentation
GAN [27.936725483892076]
本稿では,画像翻訳とインスタンスセグメンテーションを共同で行うCysic Generative Adrial Network(CySGAN)を提案する。
注記電子顕微鏡(en:Annotated electron microscopy, EM)画像とラベルなし拡張顕微鏡(en:Unlabeled expansion microscopy, ExM)データを用いて, ニューロンの3次元セグメンテーションの課題についてベンチマークを行った。
論文 参考訳(メタデータ) (2022-04-06T20:46:39Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Self-supervised Correlation Mining Network for Person Image Generation [9.505343361614928]
人物画像生成は、ソース画像の非剛性変形を実現することを目的としている。
特徴空間のソース画像を再構成する自己教師付き相関マイニングネットワーク(SCM-Net)を提案する。
クロススケールポーズ変換の忠実度を向上させるために,グラフに基づく身体構造保持損失を提案する。
論文 参考訳(メタデータ) (2021-11-26T03:57:46Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Manipulating Medical Image Translation with Manifold Disentanglement [5.301506608482977]
医用画像翻訳のためのMDGAN(Manifold Disentanglement Generative Adversarial Network)を提案する。
MDGANは、ドメイン不変の特徴とドメイン固有の特徴を明示的に切り離し、双方を個別に制御する。
MR多様体クラスタを横切る経路をトラバースすることで、入力から形状情報を保持しながら目標出力を操作できることが示される。
論文 参考訳(メタデータ) (2020-11-27T09:11:52Z) - Unsupervised Multimodal Video-to-Video Translation via Self-Supervised
Learning [92.17835753226333]
本稿では,教師なしビデオ間翻訳モデルを提案する。
本モデルは,特殊なUVデコーダ構造を用いて,そのスタイルと内容を分解する。
我々のモデルは、マルチモーダルな方法で写真リアリスティックなビデオを作成することができる。
論文 参考訳(メタデータ) (2020-04-14T13:44:30Z) - Decoupling Global and Local Representations via Invertible Generative
Flows [47.366299240738094]
標準画像ベンチマークによる実験結果から, 密度推定, 画像生成, 教師なし表現学習の観点から, モデルの有効性が示された。
この研究は、確率に基づく目的を持つ生成モデルが疎結合表現を学習でき、明示的な監督を必要としないことを示した。
論文 参考訳(メタデータ) (2020-04-12T03:18:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。