論文の概要: Mask Conditional Synthetic Satellite Imagery
- arxiv url: http://arxiv.org/abs/2302.04305v1
- Date: Wed, 8 Feb 2023 19:42:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 17:43:15.000398
- Title: Mask Conditional Synthetic Satellite Imagery
- Title(参考訳): マスク条件付き合成衛星画像
- Authors: Van Anh Le, Varshini Reddy, Zixi Chen, Mengyuan Li, Xinran Tang,
Anthony Ortiz, Simone Fobi Nsutezo, Caleb Robinson
- Abstract要約: 合成衛星画像データセット作成のためのマスク条件合成画像生成モデル
我々は,上流の条件付き合成画像生成装置を訓練し,その生成装置を用いてランドカバーマスクを用いた合成画像を作成することができることを示す。
実画像と合成画像の混合がデータ拡張手法として機能し、実画像のみを使用するよりも優れたモデルを生成することが判明した。
- 参考スコア(独自算出の注目度): 10.235751992415867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we propose a mask-conditional synthetic image generation model
for creating synthetic satellite imagery datasets. Given a dataset of real
high-resolution images and accompanying land cover masks, we show that it is
possible to train an upstream conditional synthetic imagery generator, use that
generator to create synthetic imagery with the land cover masks, then train a
downstream model on the synthetic imagery and land cover masks that achieves
similar test performance to a model that was trained with the real imagery.
Further, we find that incorporating a mixture of real and synthetic imagery
acts as a data augmentation method, producing better models than using only
real imagery (0.5834 vs. 0.5235 mIoU). Finally, we find that encouraging
diversity of outputs in the upstream model is a necessary component for
improved downstream task performance. We have released code for reproducing our
work on GitHub, see
https://github.com/ms-synthetic-satellite-image/synthetic-satellite-imagery .
- Abstract(参考訳): 本稿では,合成衛星画像データセットを作成するためのマスク条件合成画像生成モデルを提案する。
実際の高解像度画像とそれに付随するランドカバーマスクのデータセットから,上流の条件付き合成画像生成装置を訓練し,その生成装置を用いてランドカバーマスクを用いた合成画像を作成し,合成画像とランドカバーマスクを用いた下流モデルの訓練を行い,実際の画像で訓練されたモデルと同じようなテスト性能を実現することを示す。
さらに,実画像と合成画像の混合を組み込むことがデータ拡張手法となり,実画像のみを使用するよりも優れたモデルを生成することが判明した(0.5834 対 0.5235 miou)。
最後に、上流モデルにおけるアウトプットの多様性を奨励することが、下流タスクのパフォーマンスを向上させるために必要な要素であることがわかった。
GitHubで作業を再現するためのコードをリリースした。https://github.com/ms-synthetic-satellite-image/synthetic-satellite-imageryを参照してください。
関連論文リスト
- The Unmet Promise of Synthetic Training Images: Using Retrieved Real Images Performs Better [39.57368843211441]
すべての合成画像は、最終的にジェネレータを訓練するために使用される上流データに由来する。
我々は, LAION-2Bから直接取得した目標実画像に対して, 安定拡散によって生成されたタスク関連ターゲット合成データを微調整と比較した。
解析の結果,このアンダーパフォーマンスは生成物と,合成画像中のタスク関連視覚的詳細が不正確なためであることが示唆された。
論文 参考訳(メタデータ) (2024-06-07T18:04:21Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - SynFog: A Photo-realistic Synthetic Fog Dataset based on End-to-end Imaging Simulation for Advancing Real-World Defogging in Autonomous Driving [48.27575423606407]
フォトリアリスティックな霧画像を生成するために,エンド・ツー・エンドのシミュレーションパイプラインを導入する。
我々は、スカイライトとアクティブな照明条件の両方を特徴とするSynFogという新しい合成霧データセットを提案する。
実験の結果,SynFogで訓練したモデルでは,視覚知覚と検出精度が優れていた。
論文 参考訳(メタデータ) (2024-03-25T18:32:41Z) - FreeMask: Synthetic Images with Dense Annotations Make Stronger
Segmentation Models [62.009002395326384]
FreeMaskは、生成モデルからの合成画像を利用して、データ収集とアノテーション手順の負担を軽減する。
まず、現実的なデータセットによって提供されるセマンティックマスクに条件付けされた豊富な訓練画像を合成する。
本研究では,実画像との協調訓練や,実画像の事前学習による合成画像の役割について検討する。
論文 参考訳(メタデータ) (2023-10-23T17:57:27Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - DiVAE: Photorealistic Images Synthesis with Denoising Diffusion Decoder [73.1010640692609]
本稿では,拡散デコーダ(DiVAE)を用いたVQ-VAEアーキテクチャモデルを提案する。
我々のモデルは最先端の成果を達成し、さらに多くのフォトリアリスティックな画像を生成する。
論文 参考訳(メタデータ) (2022-06-01T10:39:12Z) - Synthetic Data for Model Selection [2.4499092754102874]
合成データはモデル選択に有用であることを示す。
そこで本研究では,実領域に適合する合成誤差推定をキャリブレーションする新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-03T09:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。