論文の概要: Object Fidelity Diffusion for Remote Sensing Image Generation
- arxiv url: http://arxiv.org/abs/2508.10801v1
- Date: Thu, 14 Aug 2025 16:24:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.407907
- Title: Object Fidelity Diffusion for Remote Sensing Image Generation
- Title(参考訳): リモートセンシング画像生成のための物体忠実度拡散
- Authors: Ziqi Ye, Shuran Ma, Jie Yang, Xiaoyi Yang, Ziyang Gong, Xue Yang, Haipeng Wang,
- Abstract要約: 本稿では,リモートセンシングにおけるオブジェクトの精度と忠実度を高めるために,オブジェクトの忠実度拡散(OF-Diff)を提案する。
我々は、リモートセンシングにおける拡散モデルのためのレイアウトに基づいて、オブジェクトの以前の形状を初めて抽出する。
また、DDPOを導入して拡散過程を微調整し、生成したリモートセンシング画像をより多様でセマンティックに一貫性を持たせる。
- 参考スコア(独自算出の注目度): 7.171597875550511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-precision controllable remote sensing image generation is both meaningful and challenging. Existing diffusion models often produce low-fidelity images due to their inability to adequately capture morphological details, which may affect the robustness and reliability of object detection models. To enhance the accuracy and fidelity of generated objects in remote sensing, this paper proposes Object Fidelity Diffusion (OF-Diff), which effectively improves the fidelity of generated objects. Specifically, we are the first to extract the prior shapes of objects based on the layout for diffusion models in remote sensing. Then, we introduce a dual-branch diffusion model with diffusion consistency loss, which can generate high-fidelity remote sensing images without providing real images during the sampling phase. Furthermore, we introduce DDPO to fine-tune the diffusion process, making the generated remote sensing images more diverse and semantically consistent. Comprehensive experiments demonstrate that OF-Diff outperforms state-of-the-art methods in the remote sensing across key quality metrics. Notably, the performance of several polymorphic and small object classes shows significant improvement. For instance, the mAP increases by 8.3%, 7.7%, and 4.0% for airplanes, ships, and vehicles, respectively.
- Abstract(参考訳): 高精度制御可能なリモートセンシング画像生成は有意義かつ困難である。
既存の拡散モデルでは、物体検出モデルの堅牢性や信頼性に影響を及ぼす可能性のある形態的詳細を適切に捉えることができないため、しばしば低忠実度画像を生成する。
リモートセンシングにおけるオブジェクトの精度と忠実度を高めるために,オブジェクトの忠実度を効果的に向上するオブジェクトフィデリティ拡散(OF-Diff)を提案する。
具体的には、リモートセンシングにおける拡散モデルのためのレイアウトに基づいて、オブジェクトの以前の形状を抽出する。
次に,拡散整合性損失を伴う二重分岐拡散モデルを導入し,サンプリングフェーズ中に実画像を提供することなく高忠実度リモートセンシング画像を生成する。
さらに,拡散過程を微調整するためにDDPOを導入し,生成したリモートセンシング画像をより多様でセマンティックに一貫性を持たせる。
総合的な実験により、OF-Diffはリモートセンシングにおける最先端の手法をキー品質の指標で上回ることを示した。
特に、複数の多型および小さなオブジェクトクラスのパフォーマンスは大幅に改善されている。
例えば、航空機、船舶、車両のmAPは、それぞれ8.3%、7.7%、および4.0%上昇している。
関連論文リスト
- Kernel Density Steering: Inference-Time Scaling via Mode Seeking for Image Restoration [23.098667686003928]
カーネル密度ステアリング(KDS)は、明示的な局所モード探索を通じて、堅牢で高忠実な出力を促進する新しい推論時フレームワークである。
KDSは、拡散サンプルの$N$粒子アンサンブルを使用し、それらの集合出力からパッチワイドのカーネル密度推定勾配を計算する。
この集団的な局所的なモード探索機構は「収集知恵」として機能し、刺激的なモードからアーティファクトへと引き離される。
論文 参考訳(メタデータ) (2025-07-08T02:33:44Z) - FaithDiff: Unleashing Diffusion Priors for Faithful Image Super-resolution [48.88184541515326]
本稿では,忠実な画像SRのための遅延拡散モデル(LDM)のパワーをフル活用するために,FithDiffというシンプルで効果的な手法を提案する。
高品質画像上で事前学習した拡散モデルを凍結する既存の拡散ベースSR法とは対照的に,有用な情報を特定し,忠実な構造を復元する前に拡散を解き放つことを提案する。
論文 参考訳(メタデータ) (2024-11-27T23:58:03Z) - Bring the Power of Diffusion Model to Defect Detection [0.0]
拡散確率モデル(DDPM)は,特徴リポジトリとして構築する認知過程の特徴を抽出するために事前訓練される。
待ち行列特徴を再構成してフィルタして高次元DDPM特徴を得る。
実験結果から,本手法はいくつかの産業データセット上での競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-08-25T14:28:49Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - A Dual Attentive Generative Adversarial Network for Remote Sensing Image
Change Detection [6.906936669510404]
本稿では,高分解能なリモートセンシング画像変化検出タスクを実現するために,二重注意生成対向ネットワークを提案する。
DAGANフレームワークは、85.01%がIoU、91.48%がF1スコアであり、LEVIRデータセットの先進的な手法よりもパフォーマンスが良い。
論文 参考訳(メタデータ) (2023-10-03T08:26:27Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。