論文の概要: Category-based Galaxy Image Generation via Diffusion Models
- arxiv url: http://arxiv.org/abs/2506.16255v1
- Date: Thu, 19 Jun 2025 12:14:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.061273
- Title: Category-based Galaxy Image Generation via Diffusion Models
- Title(参考訳): 拡散モデルによるカテゴリーベース銀河画像生成
- Authors: Xingzhong Fan, Hongming Tang, Yue Zeng, M. B. N. Kouwenhoven, Guangquan Zeng,
- Abstract要約: 拡散モデルのネットワーク設計において、銀河画像の特徴と天体物理特性の両方を活用する天文学における最初のフレームワークであるGalCatDiffを提案する。
GalCatDiffは拡張されたU-NetとAstro-RAB(Residual Attention Block)という新しいブロックを組み込んでいる。
実験により、GalCatDiffはサンプルの色と大きさの分布の整合性において既存の手法よりも優れており、生成した銀河は視覚的にも現実的にも物理的に整合性があることが示された。
- 参考スコア(独自算出の注目度): 0.39945675027960637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional galaxy generation methods rely on semi-analytical models and hydrodynamic simulations, which are highly dependent on physical assumptions and parameter tuning. In contrast, data-driven generative models do not have explicit physical parameters pre-determined, and instead learn them efficiently from observational data, making them alternative solutions to galaxy generation. Among these, diffusion models outperform Variational Autoencoders (VAEs) and Generative Adversarial Networks (GANs) in quality and diversity. Leveraging physical prior knowledge to these models can further enhance their capabilities. In this work, we present GalCatDiff, the first framework in astronomy to leverage both galaxy image features and astrophysical properties in the network design of diffusion models. GalCatDiff incorporates an enhanced U-Net and a novel block entitled Astro-RAB (Residual Attention Block), which dynamically combines attention mechanisms with convolution operations to ensure global consistency and local feature fidelity. Moreover, GalCatDiff uses category embeddings for class-specific galaxy generation, avoiding the high computational costs of training separate models for each category. Our experimental results demonstrate that GalCatDiff significantly outperforms existing methods in terms of the consistency of sample color and size distributions, and the generated galaxies are both visually realistic and physically consistent. This framework will enhance the reliability of galaxy simulations and can potentially serve as a data augmentor to support future galaxy classification algorithm development.
- Abstract(参考訳): 従来の銀河生成法は、物理仮定やパラメータチューニングに大きく依存する半解析モデルと流体力学シミュレーションに依存している。
対照的に、データ駆動生成モデルは、事前に決定された明確な物理パラメータを持たず、観測データから効率的に学習し、銀河生成の代替となる。
これらのうち拡散モデルは、可変オートエンコーダ(VAE)とGAN(Generative Adversarial Networks)を品質と多様性で上回る。
これらのモデルに物理的な事前知識を活用することで、それらの能力をさらに強化することができる。
本稿では,拡散モデルのネットワーク設計における銀河像の特徴と天体物理特性の両方を活用する天文学における最初のフレームワークであるGalCatDiffを紹介する。
GalCatDiffは拡張されたU-NetとAstro-RAB(Residual Attention Block)という新しいブロックを組み込んでいる。
さらに、GalCatDiffはクラス固有の銀河生成にカテゴリ埋め込みを使用し、各カテゴリの別々のモデルをトレーニングする際の高い計算コストを回避する。
実験により、GalCatDiffはサンプルの色と大きさの分布の整合性において既存の手法よりも優れており、生成した銀河は視覚的にも現実的にも物理的に整合性があることが示された。
この枠組みは銀河シミュレーションの信頼性を高め、将来の銀河分類アルゴリズムの開発を支援するデータ拡張器として機能する可能性がある。
関連論文リスト
- Can AI Dream of Unseen Galaxies? Conditional Diffusion Model for Galaxy Morphology Augmentation [4.3933321767775135]
本研究では,機械学習データを拡張するために,現実的な銀河画像を合成するための条件拡散モデルを提案する。
本研究では,本モデルが特定の形態的特徴条件に密着した多彩な高忠実度銀河画像を生成することを示す。
このモデルにより、生成外挿により、よく注釈付けされたデータを未知の領域に投影し、希少なオブジェクト検出を進めることができる。
論文 参考訳(メタデータ) (2025-06-19T11:44:09Z) - UniGenX: Unified Generation of Sequence and Structure with Autoregressive Diffusion [61.690978792873196]
既存のアプローチは自己回帰シーケンスモデルか拡散モデルのいずれかに依存している。
自己回帰的次トーケン予測と条件拡散モデルを組み合わせた統合フレームワークUniGenXを提案する。
材料および小分子生成タスクにおけるUniGenXの有効性を検証する。
論文 参考訳(メタデータ) (2025-03-09T16:43:07Z) - Conditional Diffusion-Flow models for generating 3D cosmic density fields: applications to f(R) cosmologies [0.0]
次世代の銀河探査は、宇宙スケールでの重力のテストにおいて前例のない精度を約束する。
本研究では,3次元暗黒物質密度場を生成するための条件生成モデルについて,スコアベース(拡散)およびフローベース手法を用いて検討する。
論文 参考訳(メタデータ) (2025-02-24T12:06:23Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - LtU-ILI: An All-in-One Framework for Implicit Inference in Astrophysics and Cosmology [1.5070941464775514]
本稿では,LtU-ILIパイプライン(Learning the Universe Implicit Likelihood Inference:LtU-ILI)を提案する。
これは天体物理学と宇宙論における最先端の機械学習(ML)推論である。
天体物理学や宇宙論の諸問題にまたがる実応用を提示する。
論文 参考訳(メタデータ) (2024-02-06T19:00:00Z) - Discovering Galaxy Features via Dataset Distillation [7.121183597915665]
多くのアプリケーションにおいて、ニューラルネット(NN)は、人間の能力以上の分類性能を持つ。
ここでは、このアイデアを銀河分類の非常に難しい課題に適用する。
ニューラルネットワークのレンズを通して原型銀河形態を要約し視覚化する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-29T12:39:31Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z) - Learning High-Dimensional Distributions with Latent Neural Fokker-Planck
Kernels [67.81799703916563]
低次元潜在空間におけるフォッカー・プランク方程式の解法として問題を定式化する新しい手法を導入する。
提案モデルでは,潜在分散モーフィング,ジェネレータ,パラメータ化Fokker-Planckカーネル関数からなる。
論文 参考訳(メタデータ) (2021-05-10T17:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。