論文の概要: FLAME Diffuser: Wildfire Image Synthesis using Mask Guided Diffusion
- arxiv url: http://arxiv.org/abs/2403.03463v2
- Date: Mon, 30 Sep 2024 20:23:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-02 16:32:38.507922
- Title: FLAME Diffuser: Wildfire Image Synthesis using Mask Guided Diffusion
- Title(参考訳): FLAMEディフューザ:マスク誘導拡散を用いたワイルドファイア画像合成
- Authors: Hao Wang, Sayed Pedram Haeri Boroujeni, Xiwen Chen, Ashish Bastola, Huayu Li, Wenhui Zhu, Abolfazl Razi,
- Abstract要約: 本研究では,現実的な山火事画像を生成するためのトレーニングフリーで拡散型フレームワークを提案する。
われわれのフレームワークは、本物の山火事データからサンプル化した拡張マスクを用いており、現実的な炎の発生を誘導するためにパーリンノイズを適用している。
正規化Frechet Inception Distance, CLIP Score, カスタムCLIP Confidence測定値を用いて生成画像を評価する。
- 参考スコア(独自算出の注目度): 4.038140001938416
- License:
- Abstract: Wildfires are a significant threat to ecosystems and human infrastructure, leading to widespread destruction and environmental degradation. Recent advancements in deep learning and generative models have enabled new methods for wildfire detection and monitoring. However, the scarcity of annotated wildfire images limits the development of robust models for these tasks. In this work, we present the FLAME Diffuser, a training-free, diffusion-based framework designed to generate realistic wildfire images with paired ground truth. Our framework uses augmented masks, sampled from real wildfire data, and applies Perlin noise to guide the generation of realistic flames. By controlling the placement of these elements within the image, we ensure precise integration while maintaining the original images style. We evaluate the generated images using normalized Frechet Inception Distance, CLIP Score, and a custom CLIP Confidence metric, demonstrating the high quality and realism of the synthesized wildfire images. Specifically, the fusion of Perlin noise in this work significantly improved the quality of synthesized images. The proposed method is particularly valuable for enhancing datasets used in downstream tasks such as wildfire detection and monitoring.
- Abstract(参考訳): 森林火災は生態系や人的インフラにとって重大な脅威であり、大規模な破壊と環境破壊につながっている。
近年のディープラーニングと生成モデルの進歩により,山火事の検出とモニタリングの新しい手法が実現されている。
しかし、注釈付き山火事画像の不足により、これらの課題に対する堅牢なモデルの開発が制限される。
本研究では,FAME Diffuserについて述べる。FLAME Diffuserは,現実的な山火事画像を生成するためのトレーニングフリーで拡散型フレームワークである。
われわれのフレームワークは、実際の山火事データからサンプル化した拡張マスクを用いており、現実的な炎の発生を誘導するためにパーリンノイズを適用している。
画像内のこれらの要素の配置を制御することにより、元の画像スタイルを維持しながら正確な統合を確実にする。
本稿では,正規化Frechet Inception Distance,CLIP Score,CLIP Confidenceの測定値を用いて生成画像の評価を行い,合成した山火事画像の品質とリアリズムを実証した。
特に、この研究におけるパーリンノイズの融合は、合成画像の品質を著しく向上させた。
提案手法は特に,山火事の検出やモニタリングなどの下流タスクで使用されるデータセットの強化に有用である。
関連論文リスト
- Harmonizing Light and Darkness: A Symphony of Prior-guided Data Synthesis and Adaptive Focus for Nighttime Flare Removal [44.35766203309201]
インセンス光源は、夜間に撮影画像にフレアを発生させることが多く、視覚的品質を劣化させ、下流の用途に悪影響を及ぼす。
効果的なフレア除去ネットワークをトレーニングするためには、信頼できるデータセットが不可欠である。
フレアの明るさが照明法則に合致するマルチフレア画像を含むフレア7K*という先行誘導型データセットを合成する。
クリーンな背景領域を適応的にマスキングし,フレアに強く影響された領域にフォーカスするモデルを支援するためのプラグイン・アンド・プレイ適応型フォーカス・モジュール (AFM) を提案する。
論文 参考訳(メタデータ) (2024-03-30T10:37:56Z) - DODA: Diffusion for Object-detection Domain Adaptation in Agriculture [4.549305421261851]
本稿では,農業の新しい領域を対象とした高品質なオブジェクト検出データを生成するデータシンセサイザーであるDODAを提案する。
具体的には、画像としてレイアウトを符号化することでレイアウト・ツー・イメージの制御性を向上し、ラベルの品質を向上させる。
論文 参考訳(メタデータ) (2024-03-27T08:16:33Z) - Scrapping The Web For Early Wildfire Detection [0.0]
Pyroはウェブスクレイピングベースのデータセットで、カメラネットワークからの山火事のビデオで構成されている。
データセットは、データの品質と多様性を改善し、最終的なデータを1万枚まで削減する戦略に基づいてフィルタリングされた。
論文 参考訳(メタデータ) (2024-02-08T02:01:36Z) - Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では,露光ブラケット写真を利用して画像復元と拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - RADiff: Controllable Diffusion Models for Radio Astronomical Maps
Generation [6.128112213696457]
RADiffは、注釈付き無線データセット上でトレーニングされた条件拡散モデルに基づく生成的アプローチである。
完全合成画像アノテーションペアを生成して,任意のアノテートデータセットを自動的に拡張できることを示す。
論文 参考訳(メタデータ) (2023-07-05T16:04:44Z) - DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing [94.24479528298252]
DragGANは、ピクセルレベルの精度で印象的な編集結果を実現する、インタラクティブなポイントベースの画像編集フレームワークである。
大規模な事前学習拡散モデルを利用することで、実画像と拡散画像の両方における対話的点ベース編集の適用性を大幅に向上する。
本稿では,対話的点ベース画像編集手法の性能を評価するため,DragBenchというベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-26T06:04:09Z) - iEdit: Localised Text-guided Image Editing with Weak Supervision [53.082196061014734]
テキスト誘導画像編集のための新しい学習法を提案する。
ソースイメージに条件付けされた画像とテキスト編集プロンプトを生成する。
画像の忠実度、CLIPアライメントスコア、および生成された画像と実際の画像の両方を定性的に編集する点において、画像に対して好ましい結果を示す。
論文 参考訳(メタデータ) (2023-05-10T07:39:14Z) - Six-channel Image Representation for Cross-domain Object Detection [17.854940064699985]
ディープラーニングモデルはデータ駆動であり、優れたパフォーマンスは豊富で多様なデータセットに依存する。
いくつかの画像から画像への翻訳技術は、モデルを訓練するために特定のシーンの偽データを生成するために用いられる。
3チャンネル画像とそのgan生成した偽画像に刺激を与え,データセットの6チャンネル表現を作成することを提案する。
論文 参考訳(メタデータ) (2021-01-03T04:50:03Z) - Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth [58.226535803985804]
我々はReal-MFFと呼ばれる大規模で現実的なマルチフォーカスデータセットを導入する。
データセットは、710対のソースイメージと対応する接地真理画像を含む。
このデータセット上で10の典型的なマルチフォーカスアルゴリズムを図示のために評価する。
論文 参考訳(メタデータ) (2020-03-28T12:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。