論文の概要: Data Augmentation and Resolution Enhancement using GANs and Diffusion Models for Tree Segmentation
- arxiv url: http://arxiv.org/abs/2505.15077v1
- Date: Wed, 21 May 2025 03:57:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.856378
- Title: Data Augmentation and Resolution Enhancement using GANs and Diffusion Models for Tree Segmentation
- Title(参考訳): 木分割のためのGANと拡散モデルを用いたデータ拡張と分解能向上
- Authors: Alessandro dos Santos Ferreira, Ana Paula Marques Ramos, José Marcato Junior, Wesley Nunes Gonçalves,
- Abstract要約: 都市森林は、環境の質を高め、都市における生物多様性を支援する上で重要な役割を担っている。
複雑な地形と異なる衛星センサーやUAV飛行高度による画像解像度の変化により、正確に木を検知することは困難である。
低解像度空中画像の品質を高めるため,GANと拡散モデルとドメイン適応を統合した新しいパイプラインを提案する。
- 参考スコア(独自算出の注目度): 49.13393683126712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Urban forests play a key role in enhancing environmental quality and supporting biodiversity in cities. Mapping and monitoring these green spaces are crucial for urban planning and conservation, yet accurately detecting trees is challenging due to complex landscapes and the variability in image resolution caused by different satellite sensors or UAV flight altitudes. While deep learning architectures have shown promise in addressing these challenges, their effectiveness remains strongly dependent on the availability of large and manually labeled datasets, which are often expensive and difficult to obtain in sufficient quantity. In this work, we propose a novel pipeline that integrates domain adaptation with GANs and Diffusion models to enhance the quality of low-resolution aerial images. Our proposed pipeline enhances low-resolution imagery while preserving semantic content, enabling effective tree segmentation without requiring large volumes of manually annotated data. Leveraging models such as pix2pix, Real-ESRGAN, Latent Diffusion, and Stable Diffusion, we generate realistic and structurally consistent synthetic samples that expand the training dataset and unify scale across domains. This approach not only improves the robustness of segmentation models across different acquisition conditions but also provides a scalable and replicable solution for remote sensing scenarios with scarce annotation resources. Experimental results demonstrated an improvement of over 50% in IoU for low-resolution images, highlighting the effectiveness of our method compared to traditional pipelines.
- Abstract(参考訳): 都市森林は、環境の質を高め、都市における生物多様性を支援する上で重要な役割を担っている。
これらの緑地のマッピングとモニタリングは都市計画と保全に不可欠であるが、複雑な景観と異なる衛星センサーやUAV飛行高度による画像解像度の変化により、正確に木を検知することは困難である。
ディープラーニングアーキテクチャはこれらの課題に対処することを約束しているが、その効果は大規模で手動でラベル付けされたデータセットの可用性に強く依存している。
本研究では,低分解能空中画像の品質向上のために,ドメイン適応をGANや拡散モデルと統合した新しいパイプラインを提案する。
提案するパイプラインは,意味的コンテンツを保存しながら,低解像度の画像を向上し,大量の手動注釈データを必要とすることなく,効果的な木分割を可能にする。
pix2pix、Real-ESRGAN、Latent Diffusion、Stable Diffusionといったモデルを活用して、トレーニングデータセットを拡張し、ドメイン間のスケールを統一する、現実的で構造的に一貫した合成サンプルを生成します。
このアプローチは、異なる取得条件にわたるセグメンテーションモデルの堅牢性を改善するだけでなく、アノテーションリソースの少ないリモートセンシングシナリオに対して、スケーラブルでレプリカ可能なソリューションを提供する。
実験の結果,低解像度画像に対するIoUの50%以上の改善が示され,従来のパイプラインと比較して本手法の有効性が示された。
関連論文リスト
- InstaRevive: One-Step Image Enhancement via Dynamic Score Matching [66.97989469865828]
InstaReviveは、強力な生成能力を活用するためにスコアベースの拡散蒸留を利用する画像強調フレームワークである。
私たちのフレームワークは、さまざまな課題やデータセットにまたがって、高品質で視覚的に魅力的な結果を提供します。
論文 参考訳(メタデータ) (2025-04-22T01:19:53Z) - A Diffusion-Based Framework for Terrain-Aware Remote Sensing Image Reconstruction [4.824120664293887]
SatelliteMakerは、さまざまなレベルのデータ損失で失われたデータを再構成する拡散ベースの方法である。
条件入力としてのDEM(Digital Elevation Model)は、リアルな画像を生成するために調整されたプロンプトを使用する。
分散損失に基づくVGG-Adapterモジュール。
論文 参考訳(メタデータ) (2025-04-16T14:19:57Z) - Deep Change Monitoring: A Hyperbolic Representative Learning Framework and a Dataset for Long-term Fine-grained Tree Change Detection [24.830328687562695]
既存のデータセットは、低解像度の画像と高い取得コストのために、ツリーの連続的なきめ細かい変更をキャプチャできない。
UAVTCは,カメラを備えたUAVを用いて収集した大規模,長期,高解像度のデータセットである。
本稿では, 動的木変化のコンパクトかつ階層的な表現を可能にする, TC検出のための新しいハイパーボリック・シームズ・ネットワーク(HSN)を提案する。
論文 参考訳(メタデータ) (2025-03-01T22:29:29Z) - BD-Diff: Generative Diffusion Model for Image Deblurring on Unknown Domains with Blur-Decoupled Learning [55.21345354747609]
BD-Diffは、未知の領域における劣化性能を高めるために設計された生成拡散モデルである。
構造表現とぼやけたパターン抽出器に2つのQ-Formerを別々に採用する。
構造的特徴とぼやけたパターンを補完する再構成タスクを導入する。
論文 参考訳(メタデータ) (2025-02-03T17:00:40Z) - SatFlow: Generative model based framework for producing High Resolution Gap Free Remote Sensing Imagery [0.0]
SatFlowは低分解能MODIS画像とランドサット観測を融合して高分解能・高分解能表面反射率画像を生成する生成モデルベースフレームワークである。
条件付きフローマッチングを用いて学習した本モデルでは, 構造的・スペクトル的整合性のある画像の生成性能が向上した。
この機能は、作物のフェノロジー追跡や環境変化検出など、下流のアプリケーションに不可欠である。
論文 参考訳(メタデータ) (2025-02-03T06:40:13Z) - Memory-efficient High-resolution OCT Volume Synthesis with Cascaded Amortized Latent Diffusion Models [48.87160158792048]
本稿では,高分解能CTボリュームをメモリ効率よく合成できるCA-LDM(Cascaded amortized Latent diffusion model)を提案する。
公開高解像度OCTデータセットを用いた実験により、我々の合成データは、既存の手法の能力を超越した、現実的な高解像度かつグローバルな特徴を持つことが示された。
論文 参考訳(メタデータ) (2024-05-26T10:58:22Z) - Robust Disaster Assessment from Aerial Imagery Using Text-to-Image Synthetic Data [66.49494950674402]
航空画像からの損傷評価のタスクのための大規模合成監視を作成する際に,新たなテキスト・画像生成モデルを活用する。
低リソース領域から何千ものポストディスアスター画像を生成するために、効率的でスケーラブルなパイプラインを構築しています。
我々は,xBDおよびSKAI画像のクロスジオグラフィー領域転送設定におけるフレームワークの強度を,単一ソースとマルチソースの両方で検証する。
論文 参考訳(メタデータ) (2024-05-22T16:07:05Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - RSDiff: Remote Sensing Image Generation from Text Using Diffusion Model [0.8747606955991705]
本研究では,高解像度衛星画像をテキストプロンプトから合成するための2段階拡散モデル手法を提案する。
このパイプラインは、テキスト入力に基づいて初期画像を生成する低解像度拡散モデル(LRDM)と、これらの画像を高解像度出力に洗練する超解拡散モデル(SRDM)から構成される。
論文 参考訳(メタデータ) (2023-09-03T09:34:49Z) - Efficient texture-aware multi-GAN for image inpainting [5.33024001730262]
近年のGAN (Generative Adversarial Network) のインペイント手法は顕著に改善されている。
本稿では,性能とレンダリング効率の両方を改善するマルチGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-30T14:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。