論文の概要: Seg-CycleGAN : SAR-to-optical image translation guided by a downstream task
- arxiv url: http://arxiv.org/abs/2408.05777v1
- Date: Sun, 11 Aug 2024 14:01:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 15:37:52.215434
- Title: Seg-CycleGAN : SAR-to-optical image translation guided by a downstream task
- Title(参考訳): Seg-CycleGAN : SAR-to-optical image translation by a downstream task
- Authors: Hannuo Zhang, Huihui Li, Jiarui Lin, Yujie Zhang, Jianghua Fan, Hang Liu,
- Abstract要約: 本文は,GANに基づくSAR-to-optical image translation法であるSeeg-CycleGANを提案する。
本手法は,船の標的セマンティックセグメンテーションの下流タスクを利用して,画像翻訳ネットワークのトレーニングを指導する。
SAR-to-optical Translationタスクにおける基礎モデルアノテーション付きデータセットの可能性を明らかにする。
- 参考スコア(独自算出の注目度): 12.1644771398574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical remote sensing and Synthetic Aperture Radar(SAR) remote sensing are crucial for earth observation, offering complementary capabilities. While optical sensors provide high-quality images, they are limited by weather and lighting conditions. In contrast, SAR sensors can operate effectively under adverse conditions. This letter proposes a GAN-based SAR-to-optical image translation method named Seg-CycleGAN, designed to enhance the accuracy of ship target translation by leveraging semantic information from a pre-trained semantic segmentation model. Our method utilizes the downstream task of ship target semantic segmentation to guide the training of image translation network, improving the quality of output Optical-styled images. The potential of foundation-model-annotated datasets in SAR-to-optical translation tasks is revealed. This work suggests broader research and applications for downstream-task-guided frameworks. The code will be available at https://github.com/NPULHH/
- Abstract(参考訳): 光リモートセンシングと合成開口レーダ(SAR)リモートセンシングは地球観測に不可欠であり、補完機能を備えている。
光センサーは高品質な画像を提供するが、天候や照明条件によって制限される。
対照的に、SARセンサは、悪条件下で効果的に動作することができる。
本文は,Seg-CycleGANという,GANをベースとしたSAR-to-optical image translation法を提案する。
本手法は,船の目標セマンティックセグメンテーションの下流タスクを利用して,画像翻訳ネットワークのトレーニングを指導し,出力された光学式画像の品質を向上させる。
SAR-to-optical Translationタスクにおける基礎モデルアノテーション付きデータセットの可能性を明らかにする。
この研究は、ダウンストリームタスク誘導フレームワークの幅広い研究と応用を示唆している。
コードはhttps://github.com/NPULHH/で入手できる。
関連論文リスト
- Trustworthy Image Semantic Communication with GenAI: Explainablity, Controllability, and Efficiency [59.15544887307901]
画像意味コミュニケーション(ISC)は,高効率な映像コンテンツ伝送を実現する可能性に注目されている。
既存のISCシステムは、解釈可能性、操作性、互換性の課題に直面している。
我々は、複数の下流推論タスクにGenerative Artificial Intelligence(GenAI)を利用する新しい信頼できるISCフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-07T14:32:36Z) - Multi-task SAR Image Processing via GAN-based Unsupervised Manipulation [6.154796320245652]
GAN(Generative Adversarial Networks)は、多数の現実的なSAR画像の合成において、大きな可能性を秘めている。
本稿では、GANベースのUnsupervised Editing (GUE)と呼ばれる新しいSAR画像処理フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-02T19:49:30Z) - Attention Guided Network for Salient Object Detection in Optical Remote
Sensing Images [16.933770557853077]
光リモートセンシング画像(RSI-SOD)における局所物体検出は非常に難しい作業である。
本稿では,光学RSIにおけるSODのための新しい注意誘導ネットワーク(AGNet)を提案する。
AGNetは、他の最先端の手法と比較して、競争力がある。
論文 参考訳(メタデータ) (2022-07-05T01:01:03Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - A Dual-fusion Semantic Segmentation Framework With GAN For SAR Images [10.147351262526282]
合成開口レーダ(SAR)画像セグメンテーションを実現するために,広く使用されているエンコーダデコーダアーキテクチャに基づくネットワークを提案する。
光画像のより優れた表現能力により、多数のSARおよび光画像によって訓練された生成反転ネットワーク(GAN)を介して生成された光画像とSAR画像を統合することを提案する。
論文 参考訳(メタデータ) (2022-06-02T15:22:29Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - Adjacent Context Coordination Network for Salient Object Detection in
Optical Remote Sensing Images [102.75699068451166]
本稿では,光RSI-SODのためのエンコーダ・デコーダアーキテクチャにおいて,隣接した特徴のコーディネートを探索するための新しいアジャセントコンテキストコーディネートネットワーク(ACCoNet)を提案する。
提案されたACCoNetは、9つの評価基準の下で22の最先端メソッドを上回り、1つのNVIDIA Titan X GPU上で81fpsで動作する。
論文 参考訳(メタデータ) (2022-03-25T14:14:55Z) - Denoising and Optical and SAR Image Classifications Based on Feature
Extraction and Sparse Representation [0.0]
本稿では,光学画像とSAR画像の分類を識別し,特徴抽出し,比較する手法を提案する。
光画像データは、リモートセンシングの作業員によって、容易に解釈できるため、土地利用と被覆について調査するために使われてきた。
論文 参考訳(メタデータ) (2021-06-03T14:39:30Z) - PeaceGAN: A GAN-based Multi-Task Learning Method for SAR Target Image
Generation with a Pose Estimator and an Auxiliary Classifier [50.17500790309477]
SARターゲット画像生成のための新しいGANベースのマルチタスク学習(MTL)手法であるPeaceGANを提案する。
PeaceGANはポーズ角とターゲットクラス情報の両方を使用し、目的のポーズ角で所望のターゲットクラスのSARターゲット画像を作成することができる。
論文 参考訳(メタデータ) (2021-03-29T10:03:09Z) - Visualization of Deep Transfer Learning In SAR Imagery [0.0]
eo shipデータセットでトレーニングされたネットワークの深い機能を活用するために、転送学習を検討する。
クラスアクティベーションマップの形でネットワークアクティベーションを調べることで、ディープネットワークが新しいモダリティをどのように解釈するかを知ることができます。
論文 参考訳(メタデータ) (2021-03-20T00:16:15Z) - Dense Attention Fluid Network for Salient Object Detection in Optical
Remote Sensing Images [193.77450545067967]
光リモートセンシング画像(RSI)における有意物体検出のためのエンド・ツー・エンドDense Attention Fluid Network(DAFNet)を提案する。
GCA(Global Context-Aware Attention)モジュールは、長距離の意味的関係を適応的にキャプチャするために提案される。
我々は、2000枚の画像とピクセルワイドなサリエンシアノテーションを含むSODのための新しい、挑戦的な光学RSIデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-26T06:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。