論文の概要: RADiff: Controllable Diffusion Models for Radio Astronomical Maps
Generation
- arxiv url: http://arxiv.org/abs/2307.02392v1
- Date: Wed, 5 Jul 2023 16:04:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 13:06:27.807330
- Title: RADiff: Controllable Diffusion Models for Radio Astronomical Maps
Generation
- Title(参考訳): RADiff: 電波地図生成のための制御可能な拡散モデル
- Authors: Renato Sortino, Thomas Cecconello, Andrea DeMarco, Giuseppe Fiameni,
Andrea Pilzer, Andrew M. Hopkins, Daniel Magro, Simone Riggi, Eva Sciacca,
Adriano Ingallinera, Cristobal Bordiu, Filomena Bufano, Concetto Spampinato
- Abstract要約: RADiffは、注釈付き無線データセット上でトレーニングされた条件拡散モデルに基づく生成的アプローチである。
完全合成画像アノテーションペアを生成して,任意のアノテートデータセットを自動的に拡張できることを示す。
- 参考スコア(独自算出の注目度): 6.128112213696457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Along with the nearing completion of the Square Kilometre Array (SKA), comes
an increasing demand for accurate and reliable automated solutions to extract
valuable information from the vast amount of data it will allow acquiring.
Automated source finding is a particularly important task in this context, as
it enables the detection and classification of astronomical objects.
Deep-learning-based object detection and semantic segmentation models have
proven to be suitable for this purpose. However, training such deep networks
requires a high volume of labeled data, which is not trivial to obtain in the
context of radio astronomy. Since data needs to be manually labeled by experts,
this process is not scalable to large dataset sizes, limiting the possibilities
of leveraging deep networks to address several tasks. In this work, we propose
RADiff, a generative approach based on conditional diffusion models trained
over an annotated radio dataset to generate synthetic images, containing radio
sources of different morphologies, to augment existing datasets and reduce the
problems caused by class imbalances. We also show that it is possible to
generate fully-synthetic image-annotation pairs to automatically augment any
annotated dataset. We evaluate the effectiveness of this approach by training a
semantic segmentation model on a real dataset augmented in two ways: 1) using
synthetic images obtained from real masks, and 2) generating images from
synthetic semantic masks. We show an improvement in performance when applying
augmentation, gaining up to 18% in performance when using real masks and 4%
when augmenting with synthetic masks. Finally, we employ this model to generate
large-scale radio maps with the objective of simulating Data Challenges.
- Abstract(参考訳): Square Kilometre Array(SKA)の完成が間近に迫っているのに伴い、大量のデータから貴重な情報を抽出する正確で信頼性の高い自動化ソリューションへの需要が高まっている。
自動ソース発見は、天文天体の検出と分類を可能にするため、この文脈において特に重要なタスクである。
ディープラーニングに基づくオブジェクト検出とセマンティックセグメンテーションモデルがこの目的に適していることが証明されている。
しかし、そのような深層ネットワークの訓練には大量のラベル付きデータが必要であるため、電波天文学の文脈では簡単には得られない。
データは専門家によって手動でラベル付けされる必要があるため、このプロセスは大規模なデータセットサイズには拡張性がなく、複数のタスクにディープネットワークを利用する可能性も制限される。
本研究では,アノテートされた無線データセット上で訓練された条件拡散モデルに基づく生成手法であるRADiffを提案し,異なる形態の電波源を含む合成画像を生成し,既存のデータセットを増大させ,クラス不均衡に起因する問題を低減させる。
また、全合成画像アノテーションペアを生成し、任意のアノテートデータセットを自動的に拡張できることも示している。
本手法の有効性を,2つの方法で拡張した実データセット上で意味セグメンテーションモデルをトレーニングすることで評価する。
1)実マスクから得られた合成画像を用いて
2)合成意味マスクから画像を生成する。
本研究は, 合成マスクを用いた場合, 実マスクを用いた場合, 最大18%, 合成マスクを用いた場合, 4%の性能向上を示す。
最後に,このモデルを用いて大規模無線地図の作成を行い,データ課題のシミュレーションを行った。
関連論文リスト
- SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - Modified CycleGAN for the synthesization of samples for wheat head
segmentation [0.09999629695552192]
注釈付きデータセットがない場合は、モデル開発に合成データを使用することができる。
そこで我々は,小麦頭部分割のための現実的な注釈付き合成データセットを開発した。
その結果、Diceのスコアは内部データセットで83.4%、外部のGlobal Wheat Head Detectionデータセットで83.6%に達した。
論文 参考訳(メタデータ) (2024-02-23T06:42:58Z) - MosaicFusion: Diffusion Models as Data Augmenters for Large Vocabulary Instance Segmentation [104.03166324080917]
MosaicFusionは、大語彙のインスタンスセグメンテーションのための、単純で効果的な拡散に基づくデータ拡張手法である。
本手法はトレーニングフリーであり,ラベル管理に依存しない。
LVISロングテールおよびオープンボキャブラリベンチマークの実験結果は、MosaicFusionが既存のインスタンスセグメンテーションモデルの性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2023-09-22T17:59:42Z) - DiffusionEngine: Diffusion Model is Scalable Data Engine for Object
Detection [41.436817746749384]
Diffusion Modelはオブジェクト検出のためのスケーラブルなデータエンジンである。
DiffusionEngine(DE)は、高品質な検出指向のトレーニングペアを単一のステージで提供する。
論文 参考訳(メタデータ) (2023-09-07T17:55:01Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - PromptMix: Text-to-image diffusion models enhance the performance of
lightweight networks [83.08625720856445]
ディープラーニングタスクは、人間のオペレーターに時間がかかりすぎるアノテーションを必要とする。
本稿では,既存のデータセットのサイズを人工的に向上するPromptMixを紹介する。
PromptMixは軽量ネットワークの性能を最大26%向上させることができることを示す。
論文 参考訳(メタデータ) (2023-01-30T14:15:47Z) - Image Classification on Small Datasets via Masked Feature Mixing [22.105356244579745]
ChimeraMixと呼ばれるアーキテクチャは、インスタンスの合成を生成することによってデータ拡張を学習する。
生成モデルは、画像をペアにエンコードし、マスクでガイドされた特徴を組み合わせて、新しいサンプルを作成する。
評価のために、すべてのメソッドは追加データなしでスクラッチからトレーニングされる。
論文 参考訳(メタデータ) (2022-02-23T16:51:22Z) - Generating Data Augmentation samples for Semantic Segmentation of Salt
Bodies in a Synthetic Seismic Image Dataset [0.0]
本研究では,2つの生成モデルのトレーニングに基づくデータ拡張手法を提案し,塩分の意味的セグメンテーションのための地震画像データセットにおけるサンプル数を増大させる。
提案手法では, 深層学習モデルを用いて, データ拡張のための2組の地震画像パッチと各ソルトマスクを生成する。
論文 参考訳(メタデータ) (2021-06-15T16:32:32Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Set Based Stochastic Subsampling [85.5331107565578]
本稿では,2段階間ニューラルサブサンプリングモデルを提案する。
画像分類,画像再構成,機能再構築,少数ショット分類など,様々なタスクにおいて,低いサブサンプリング率で関連ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-25T07:36:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。