論文の概要: CoMoGAN: continuous model-guided image-to-image translation
- arxiv url: http://arxiv.org/abs/2103.06879v1
- Date: Thu, 11 Mar 2021 18:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:59:43.372124
- Title: CoMoGAN: continuous model-guided image-to-image translation
- Title(参考訳): CoMoGAN:連続モデル誘導画像-画像変換
- Authors: Fabio Pizzati, Pietro Cerri, Raoul de Charette
- Abstract要約: CoMoGAN は、函数多様体上の対象データの教師なし再編成に依存する連続 GAN である。
本稿では,対象多様体上の位置から画像コンテンツを分離する新しい機能的インスタンス正規化層と残留機構を提案する。
- 参考スコア(独自算出の注目度): 14.087944269230293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CoMoGAN is a continuous GAN relying on the unsupervised reorganization of the
target data on a functional manifold. To that matter, we introduce a new
Functional Instance Normalization layer and residual mechanism, which together
disentangle image content from position on target manifold. We rely on naive
physics-inspired models to guide the training while allowing private
model/translations features. CoMoGAN can be used with any GAN backbone and
allows new types of image translation, such as cyclic image translation like
timelapse generation, or detached linear translation. On all datasets and
metrics, it outperforms the literature. Our code is available at
http://github.com/cv-rits/CoMoGAN .
- Abstract(参考訳): CoMoGAN は、函数多様体上の対象データの教師なし再編成に依存する連続 GAN である。
そこで本研究では,対象多様体上の位置から画像を分離する新たな機能的インスタンス正規化層と残差機構について紹介する。
我々は、プライベートモデル/翻訳機能を許容しながらトレーニングをガイドするために、素直な物理モデルに依存しています。
CoMoGANは、任意のGANバックボーンで使用でき、タイムラプス生成のような周期的な画像翻訳、または分離された線形翻訳など、新しいタイプの画像翻訳を可能にします。
すべてのデータセットとメトリクスで、文献よりも優れています。
コードはhttp://github.com/cv-rits/CoMoGAN で入手できます。
関連論文リスト
- Multimodal Knowledge Alignment with Reinforcement Learning [103.68816413817372]
ESPERは言語のみのゼロショットモデルを拡張して、画像や音声のキャプションといったマルチモーダルタスクを未確認にする。
我々の重要な新規性は、強化学習を使用することで、直接監督することなく、多モーダル入力を言語モデル世代に整列させることである。
実験の結果、ESPERはベースラインと様々なゼロショットタスクの事前作業より優れていることが示された。
論文 参考訳(メタデータ) (2022-05-25T10:12:17Z) - Instance Segmentation of Unlabeled Modalities via Cyclic Segmentation
GAN [27.936725483892076]
本稿では,画像翻訳とインスタンスセグメンテーションを共同で行うCysic Generative Adrial Network(CySGAN)を提案する。
注記電子顕微鏡(en:Annotated electron microscopy, EM)画像とラベルなし拡張顕微鏡(en:Unlabeled expansion microscopy, ExM)データを用いて, ニューロンの3次元セグメンテーションの課題についてベンチマークを行った。
論文 参考訳(メタデータ) (2022-04-06T20:46:39Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Self-supervised Correlation Mining Network for Person Image Generation [9.505343361614928]
人物画像生成は、ソース画像の非剛性変形を実現することを目的としている。
特徴空間のソース画像を再構成する自己教師付き相関マイニングネットワーク(SCM-Net)を提案する。
クロススケールポーズ変換の忠実度を向上させるために,グラフに基づく身体構造保持損失を提案する。
論文 参考訳(メタデータ) (2021-11-26T03:57:46Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Manipulating Medical Image Translation with Manifold Disentanglement [5.301506608482977]
医用画像翻訳のためのMDGAN(Manifold Disentanglement Generative Adversarial Network)を提案する。
MDGANは、ドメイン不変の特徴とドメイン固有の特徴を明示的に切り離し、双方を個別に制御する。
MR多様体クラスタを横切る経路をトラバースすることで、入力から形状情報を保持しながら目標出力を操作できることが示される。
論文 参考訳(メタデータ) (2020-11-27T09:11:52Z) - MCMI: Multi-Cycle Image Translation with Mutual Information Constraints [40.556049046897115]
教師なし画像間翻訳のための相互情報に基づくフレームワークを提案する。
MCMIアプローチでは, 単一サイクル画像翻訳モデルを, 多サイクル翻訳設定で繰り返し使用可能なモジュールとして扱う。
MCMIでトレーニングしたモデルでは,高品質な画像が生成され,セマンティックなマッピングがより学習されることを示す。
論文 参考訳(メタデータ) (2020-07-06T17:50:43Z) - Unsupervised Multimodal Video-to-Video Translation via Self-Supervised
Learning [92.17835753226333]
本稿では,教師なしビデオ間翻訳モデルを提案する。
本モデルは,特殊なUVデコーダ構造を用いて,そのスタイルと内容を分解する。
我々のモデルは、マルチモーダルな方法で写真リアリスティックなビデオを作成することができる。
論文 参考訳(メタデータ) (2020-04-14T13:44:30Z) - Decoupling Global and Local Representations via Invertible Generative
Flows [47.366299240738094]
標準画像ベンチマークによる実験結果から, 密度推定, 画像生成, 教師なし表現学習の観点から, モデルの有効性が示された。
この研究は、確率に基づく目的を持つ生成モデルが疎結合表現を学習でき、明示的な監督を必要としないことを示した。
論文 参考訳(メタデータ) (2020-04-12T03:18:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。