論文の概要: Semantically Robust Unsupervised Image Translation for Paired Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2502.11468v1
- Date: Mon, 17 Feb 2025 05:57:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:10:46.498598
- Title: Semantically Robust Unsupervised Image Translation for Paired Remote Sensing Images
- Title(参考訳): Paired Remote Sensing Image のための意味的ロバストな教師なし画像翻訳
- Authors: Sheng Fang, Kaiyu Li, Zhe Li, Jianli Zhao, Xingli Zhang,
- Abstract要約: SRUIT (Semantically Robust Unsupervised Image-to-image Translation) を提案する。
意味論的に堅牢な翻訳を保証し、決定論的出力を生成する。
クロスサイクル一貫性のある敵ネットワークを利用して、一方から他方へ翻訳し、それらを回復する。
- 参考スコア(独自算出の注目度): 12.466979110891078
- License:
- Abstract: Image translation for change detection or classification in bi-temporal remote sensing images is unique. Although it can acquire paired images, it is still unsupervised. Moreover, strict semantic preservation in translation is always needed instead of multimodal outputs. In response to these problems, this paper proposes a new method, SRUIT (Semantically Robust Unsupervised Image-to-image Translation), which ensures semantically robust translation and produces deterministic output. Inspired by previous works, the method explores the underlying characteristics of bi-temporal Remote Sensing images and designs the corresponding networks. Firstly, we assume that bi-temporal Remote Sensing images share the same latent space, for they are always acquired from the same land location. So SRUIT makes the generators share their high-level layers, and this constraint will compel two domain mapping to fall into the same latent space. Secondly, considering land covers of bi-temporal images could evolve into each other, SRUIT exploits the cross-cycle-consistent adversarial networks to translate from one to the other and recover them. Experimental results show that constraints of sharing weights and cross-cycle consistency enable translated images with both good perceptual image quality and semantic preservation for significant differences.
- Abstract(参考訳): 両時間リモートセンシング画像における変化検出や分類のための画像翻訳はユニークである。
ペア画像の取得は可能だが、まだ監視されていない。
さらに、翻訳における厳密な意味保存は、常にマルチモーダル出力の代わりに必要である。
そこで本研究では,SRUIT(Semantically Robust Unsupervised Image-to-image Translation)を提案する。
従来の研究から着想を得た本手法は,両時間リモートセンシング画像の基本特性を探索し,対応するネットワークを設計する。
まず、両時間リモートセンシング画像は、常に同じ場所から取得されるため、同じ潜在空間を共有していると仮定する。
したがって、SRUITはジェネレータを高レベルなレイヤを共有し、この制約は2つのドメインマッピングを同じ潜在空間に落とし込まなければなりません。
第二に、両時間画像の陸地被覆が互いに進化する可能性を考えると、SRUITはクロスサイクルの対向ネットワークを利用して相互に翻訳し、それらを回復する。
実験結果から,共有重みの制約とサイクル間の整合性の制約により,画像品質と意味保存の両面が良好な翻訳画像が実現できることが示唆された。
関連論文リスト
- ITTR: Unpaired Image-to-Image Translation with Transformers [34.118637795470875]
変換器を用いた非ペア画像変換(ITTR)のための効率的かつ効率的なアーキテクチャを提案する。
ITTRは,1)グローバルセマンティクスを利用するための異なる分野からのトークン混合のためのハイブリッド認識ブロック(HPB),2)計算複雑性を著しく低減するデュアルプルド自己アテンション(DPSA)の2つの主要な設計を持つ。
当社のITTRは、6つのベンチマークデータセット上で、未ペア画像から画像への変換のための最先端技術よりも優れています。
論文 参考訳(メタデータ) (2022-03-30T02:46:12Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - The Spatially-Correlative Loss for Various Image Translation Tasks [69.62228639870114]
シーン構造の一貫性を保つために、シンプルで効率的かつ効果的な新しい空間相関損失を提案します。
以前の方法は、ピクセルレベルのサイクル一貫性または特徴レベルのマッチング損失を使用してこれを試みます。
I2I翻訳の3つのモードすべてにおいて,ベースラインモデルに対して,単一モーダル,マルチモーダル,さらには単一イメージ翻訳において,明確な改善が見られた。
論文 参考訳(メタデータ) (2021-04-02T02:13:30Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - Old Photo Restoration via Deep Latent Space Translation [46.73615925108932]
本稿では, 深層学習手法を用いて, 深刻な劣化に苦しむ古い写真を復元することを提案する。
実際の写真の劣化は複雑で、合成画像と実際の古い写真とのドメインギャップは、ネットワークの一般化に失敗する。
具体的には、2つの変分オートエンコーダ(VAE)をトレーニングし、それぞれ古い写真とクリーンな写真を2つの潜在空間に変換する。
そして、これら2つの潜伏空間間の変換は、合成ペアデータによって学習される。
論文 参考訳(メタデータ) (2020-09-14T08:51:53Z) - Contrastive Learning for Unpaired Image-to-Image Translation [64.47477071705866]
画像から画像への変換では、出力の各パッチは、入力中の対応するパッチの内容を、ドメインに依存しない形で反映すべきである。
本研究では,両者の相互情報を最大化するために,コントラスト学習に基づく枠組みを提案する。
筆者らのフレームワークは、画質の向上とトレーニング時間の短縮を図りながら、画像から画像への翻訳設定の一方的な翻訳を可能にすることを実証している。
論文 参考訳(メタデータ) (2020-07-30T17:59:58Z) - Bringing Old Photos Back to Life [46.73615925108932]
実際の写真の劣化は複雑であり、合成画像と実際の古い写真とのドメインギャップは、ネットワークの一般化に失敗する。
本稿では,実写画像と大量の合成画像のペアを併用した新しい三重項領域翻訳ネットワークを提案する。
提案手法は,古写真復元における視覚的品質の観点から,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-20T17:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。