論文の概要: ResiDualGAN: Resize-Residual DualGAN for Cross-Domain Remote Sensing
Images Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2201.11523v1
- Date: Thu, 27 Jan 2022 13:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:36:23.922530
- Title: ResiDualGAN: Resize-Residual DualGAN for Cross-Domain Remote Sensing
Images Semantic Segmentation
- Title(参考訳): クロスドメインリモートセンシング画像意味セグメンテーションのためのresize-residual dualgan
- Authors: Yang Zhao, Han Gao, Peng Guo, Zihao Sun
- Abstract要約: アノテーション付きデータセットで事前訓練されたリモートセンシング(RS)画像のセマンティックセグメンテーションモデルの性能は、ドメインギャップのため、他のアノテーションなしデータセットでテストすると大幅に低下する。
画素レベルのドメインギャップを最小限に抑えるために、DualGANなどの逆生成法が未ペア画像から画像への変換に利用される。
本稿では,RS画像の変換においてResiDualGANを提案する。
- 参考スコア(独自算出の注目度): 15.177834801688979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of a semantic segmentation model for remote sensing (RS)
images pretrained on an annotated dataset would greatly decrease when testing
on another unannotated dataset because of the domain gap. Adversarial
generative methods, e.g., DualGAN, are utilized for unpaired image-to-image
translation to minimize the pixel-level domain gap, which is one of the common
approaches for unsupervised domain adaptation (UDA). However, existing image
translation methods are facing two problems when performing RS images
translation: 1) ignoring the scale discrepancy between two RS datasets which
greatly affect the accuracy performance of scale-invariant objects, 2) ignoring
the characteristic of real-to-real translation of RS images which brings an
unstable factor for the training of the models. In this paper, ResiDualGAN is
proposed for RS images translation, where a resizer module is used for
addressing the scale discrepancy of RS datasets, and a residual connection is
used for strengthening the stability of real-to-real images translation and
improving the performance in cross-domain semantic segmentation tasks.
Combining with an output space adaptation method, the proposed method greatly
improves the accuracy performance on common benchmarks, which demonstrates the
superiority and reliability of ResiDuanGAN. At the end of the paper, a thorough
discussion is also conducted to give a reasonable explanation for the
improvement of ResiDualGAN.
- Abstract(参考訳): アノテーション付きデータセットで事前訓練されたリモートセンシング(RS)画像のセマンティックセグメンテーションモデルの性能は、ドメインギャップのため、他のアノテーションなしデータセットでテストすると大幅に低下する。
DualGANのような逆生成法は、アン教師なし領域適応(UDA)の一般的なアプローチの1つであるピクセルレベルの領域ギャップを最小限に抑えるために、未ペア画像から画像への変換に利用される。
しかし、既存の画像変換法は、RS画像変換を行う際に2つの問題に直面している。
1)2つのrsデータセット間のスケールの不一致は,スケール不変オブジェクトの精度に大きく影響する。
2) モデルのトレーニングに不安定な要因をもたらすrs画像のリアル・トゥ・リアル変換の特徴を無視する。
本稿では,RS画像翻訳におけるResiDualGANを提案する。RSデータセットのスケール差に対処するためにResizerモジュールを使用し,実画像翻訳の安定性を高め,ドメイン間セマンティックセマンティックセマンティクスタスクの性能を向上させるために,残差接続を用いる。
提案手法は,出力空間適応法と組み合わせることで,共通ベンチマークの精度を大幅に向上させ,residuanganの優位性と信頼性を実証する。
論文の最後には、ResiDualGANの改善に関する合理的な説明をするために、徹底的な議論もおこなわれている。
関連論文リスト
- Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Reference-based Image and Video Super-Resolution via C2-Matching [100.0808130445653]
本稿では,C2-Matchingを提案する。
C2-Matchingは、標準的なCUFED5ベンチマークにおいて、最先端のアーツを著しく上回っている。
また、類似シーンで撮影された画像がHR参照画像として機能するため、C2-Matchingを参照ベースでビデオスーパーリゾリューションタスクに拡張する。
論文 参考訳(メタデータ) (2022-12-19T16:15:02Z) - Unsupervised Domain Adaptation for Semantic Segmentation using One-shot
Image-to-Image Translation via Latent Representation Mixing [9.118706387430883]
超高解像度画像のセマンティックセグメンテーションのための新しい教師なし領域適応法を提案する。
潜在コンテンツ表現をドメイン間で混合するエンコーダ・デコーダの原理に基づいて,画像から画像への変換パラダイムを提案する。
都市間比較実験により,提案手法は最先端領域適応法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-07T18:16:17Z) - Smooth image-to-image translations with latent space interpolations [64.8170758294427]
マルチドメインイメージ・トゥ・イメージ(I2I)変換は、ターゲットドメインのスタイルに応じてソースイメージを変換することができる。
我々の正規化技術は、最先端のI2I翻訳を大きなマージンで改善できることを示す。
論文 参考訳(メタデータ) (2022-10-03T11:57:30Z) - Dual-Flow Transformation Network for Deformable Image Registration with
Region Consistency Constraint [95.30864269428808]
現在のディープラーニング(DL)ベースの画像登録アプローチは、畳み込みニューラルネットワークを利用して、ある画像から別の画像への空間変換を学習する。
一対のイメージ内のROIの類似性を最大化する領域整合性制約を持つ新しいデュアルフロー変換ネットワークを提案する。
4つの公開3次元MRIデータセットを用いた実験により,提案手法は精度と一般化において最高の登録性能が得られることを示した。
論文 参考訳(メタデータ) (2021-12-04T05:30:44Z) - Dispensed Transformer Network for Unsupervised Domain Adaptation [21.256375606219073]
本稿では,新しい非教師付き領域適応 (UDA) 方式であるディスペンデントトランスフォーマーネットワーク (DTNet) について述べる。
提案するネットワークは,いくつかの最先端技術と比較して,最高の性能を実現している。
論文 参考訳(メタデータ) (2021-10-28T08:27:44Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Robust Reference-based Super-Resolution via C2-Matching [77.51610726936657]
超解像(Ref-SR)は、最近、高分解能(HR)参照画像を導入して、低分解能(LR)入力画像を強化するための有望なパラダイムとして登場した。
既存のRef-SR法は主に暗黙の対応に頼り、参照画像からHRテクスチャを借用し、入力画像の情報損失を補う。
本稿では,C2-Matchingを提案する。
論文 参考訳(メタデータ) (2021-06-03T16:40:36Z) - Super-Resolution Domain Adaptation Networks for Semantic Segmentation
via Pixel and Output Level Aligning [4.500622871756055]
本稿では、新しいエンドツーエンドセマンティックセマンティックセマンティクスネットワーク、すなわち超解法ドメイン適応ネットワーク(SRDA-Net)を設計する。
SRDA-Netは,超分解能タスクとドメイン適応タスクを同時に達成し,リモートセンシング画像のセマンティックセグメンテーションの必要性を満たす。
異なる解像度の2つのリモートセンシングデータセットの実験結果から、SRDA-Netは最先端の手法に対して好適に機能することが示された。
論文 参考訳(メタデータ) (2020-05-13T15:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。