論文の概要: PI-Trans: Parallel-ConvMLP and Implicit-Transformation Based GAN for
Cross-View Image Translation
- arxiv url: http://arxiv.org/abs/2207.04242v1
- Date: Sat, 9 Jul 2022 10:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 14:28:02.796351
- Title: PI-Trans: Parallel-ConvMLP and Implicit-Transformation Based GAN for
Cross-View Image Translation
- Title(参考訳): PI-Trans:Parallel-ConvMLPとImplicit-Transformationベースの画像変換用GAN
- Authors: Bin Ren, Hao Tang, Yiming Wang, Xia Li, Wei Wang, Nicu Sebe
- Abstract要約: 本稿では,新しい並列-ConvMLPモジュールと,複数のセマンティックレベルでのインプリシット変換モジュールで構成される,新しい生成逆ネットワークPI-Transを提案する。
PI-Transは、2つの挑戦的データセットの最先端手法と比較して、大きなマージンで最も質的で定量的なパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 84.97160975101718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For semantic-guided cross-view image translation, it is crucial to learn
where to sample pixels from the source view image and where to reallocate them
guided by the target view semantic map, especially when there is little overlap
or drastic view difference between the source and target images. Hence, one not
only needs to encode the long-range dependencies among pixels in both the
source view image and target view the semantic map but also needs to translate
these learned dependencies. To this end, we propose a novel generative
adversarial network, PI-Trans, which mainly consists of a novel
Parallel-ConvMLP module and an Implicit Transformation module at multiple
semantic levels. Extensive experimental results show that the proposed PI-Trans
achieves the best qualitative and quantitative performance by a large margin
compared to the state-of-the-art methods on two challenging datasets. The code
will be made available at https://github.com/Amazingren/PI-Trans.
- Abstract(参考訳): セマンティックガイドを用いたクロスビュー画像翻訳では、ソースビューイメージからピクセルをどこでサンプリングするか、ターゲットビューセマンティックマップでガイドされたピクセルをどこに再配置するか、特にソースとターゲットイメージの重なりや急激なビュー差がほとんどない場合に学ぶことが不可欠である。
したがって、ソースビューイメージとターゲットビューの両方のピクセル間の長距離依存性をエンコードするだけでなく、これらの学習した依存関係を変換する必要がある。
そこで本研究では,新しいParallel-ConvMLPモジュールと,複数のセマンティックレベルでのImplicit変換モジュールで構成される,新しい生成逆ネットワークPI-Transを提案する。
広範な実験結果から,提案するpi-transは,2つの難題データセットにおける最先端手法に比べて,質的かつ定量的に高い性能が得られることがわかった。
コードはhttps://github.com/Amazingren/PI-Transで公開される。
関連論文リスト
- Exploring Multi-view Pixel Contrast for General and Robust Image Forgery Localization [4.8454936010479335]
本稿では,画像フォージェリーローカライゼーションのための多視点Pixel-wise Contrastive Algorithm (MPC)を提案する。
具体的には、まず、教師付きコントラスト損失を伴うバックボーンネットワークを事前訓練する。
次に、クロスエントロピー損失を用いてローカライゼーションヘッドを微調整し、ピクセルローカライザを改良する。
論文 参考訳(メタデータ) (2024-06-19T13:51:52Z) - SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - Multi-Curve Translator for Real-Time High-Resolution Image-to-Image
Translation [24.651984136294242]
Multi-Curve Translator (MCT) は、対応する入力ピクセルと隣接ピクセルの変換ピクセルを予測する。
MCTにより、ダウンサンプリングされた画像のみをネットワークに供給し、フル解像度画像のマッピングを実行することができる。
MCTの変種は4K画像をリアルタイムで処理でき、ベースモデルと同等またはそれ以上のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2022-03-15T10:06:39Z) - CRIS: CLIP-Driven Referring Image Segmentation [71.56466057776086]
エンドツーエンドのCLIP駆動参照画像フレームワーク(CRIS)を提案する。
CRISは、テキストとピクセルのアライメントを達成するために、視覚言語によるデコーディングとコントラスト学習に頼っている。
提案するフレームワークは, 後処理を伴わずに, 最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-11-30T07:29:08Z) - Global and Local Alignment Networks for Unpaired Image-to-Image
Translation [170.08142745705575]
未ペア画像から画像への変換の目的は、対象領域のスタイルを反映した出力画像を作成することである。
既存の手法では内容変化に注意が払われていないため、ソース画像からの意味情報は翻訳中の劣化に悩まされる。
我々はGLA-Net(Global and Local Alignment Networks)という新しいアプローチを導入する。
本手法は既存の手法よりもシャープでリアルな画像を効果的に生成する。
論文 参考訳(メタデータ) (2021-11-19T18:01:54Z) - Cascaded Cross MLP-Mixer GANs for Cross-View Image Translation [70.00392682183515]
従来のクロスビュー画像変換法では、ターゲットビューで画像を生成することは困難である。
本稿では,カスケードクロスミキサー(CrossMLP)サブネットワークを用いた新しい2段階フレームワークを提案する。
最初の段階では、CrossMLPサブネットワークは、画像コードとセマンティックマップコードの間の潜時変換のキューを学習する。
第2段階では、ノイズの多いセマンティックラベル問題を緩和する改良されたピクセルレベルの損失を設計する。
論文 参考訳(メタデータ) (2021-10-19T18:03:30Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Multi-Channel Attention Selection GANs for Guided Image-to-Image
Translation [148.9985519929653]
本稿では,画像から画像への変換のためのマルチチャネルアテンション選択生成支援ネットワーク(SelectionGAN)を提案する。
提案するフレームワークとモジュールは統合されたソリューションであり、セマンティック画像合成などの他の生成タスクに応用できる。
論文 参考訳(メタデータ) (2020-02-03T23:17:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。