論文の概要: Hyperspectral Image Generation with Unmixing Guided Diffusion Model
- arxiv url: http://arxiv.org/abs/2506.02601v1
- Date: Tue, 03 Jun 2025 08:27:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.48155
- Title: Hyperspectral Image Generation with Unmixing Guided Diffusion Model
- Title(参考訳): Unmixing Guided Diffusion Modelを用いたハイパースペクトル画像生成
- Authors: Shiyu Shen, Bin Pan, Ziye Zhang, Zhenwei Shi,
- Abstract要約: 拡散モデルは高品質なサンプルを生成する能力で人気がある。
ハイパースペクトルアンミックス法により導かれる新しい拡散モデルを提案する。
我々のモデルは高品質で多様なハイパースペクトル画像を生成することができる。
- 参考スコア(独自算出の注目度): 21.078386095749398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, hyperspectral image generation has received increasing attention, but existing generative models rely on conditional generation schemes, which limits the diversity of generated images. Diffusion models are popular for their ability to generate high-quality samples, but adapting these models from RGB to hyperspectral data presents the challenge of high dimensionality and physical constraints. To address these challenges, we propose a novel diffusion model guided by hyperspectral unmixing. Our model comprises two key modules: an unmixing autoencoder module and an abundance diffusion module. The unmixing autoencoder module leverages unmixing guidance to shift the generative task from the image space to the low-dimensional abundance space, significantly reducing computational complexity while preserving high fidelity. The abundance diffusion module generates samples that satisfy the constraints of non-negativity and unity, ensuring the physical consistency of the reconstructed HSIs. Additionally, we introduce two evaluation metrics tailored to hyperspectral data. Empirical results, evaluated using both traditional metrics and our proposed metrics, indicate that our model is capable of generating high-quality and diverse hyperspectral images, offering an advancement in hyperspectral data generation.
- Abstract(参考訳): 近年、ハイパースペクトル画像生成が注目されているが、既存の生成モデルは条件付き生成方式に依存しており、生成画像の多様性が制限されている。
拡散モデルは高品質なサンプルを生成する能力で人気があるが、RGBからハイパースペクトルデータにこれらのモデルを適用することで、高次元と物理的制約の課題が示される。
これらの課題に対処するため,ハイパースペクトルアンミックス法により導かれる新しい拡散モデルを提案する。
我々のモデルは2つの重要なモジュールからなる: 混合しないオートエンコーダモジュールと、豊富な拡散モジュール。
未混合オートエンコーダモジュールは、未混合誘導を利用して、生成タスクを画像空間から低次元のアバンダンス空間にシフトし、高い忠実性を維持しながら計算複雑性を著しく低減する。
非負性およびユニティの制約を満たすサンプルを生成し、再構成されたHSIの物理的整合性を確保する。
さらに、ハイパースペクトルデータに適した2つの評価指標を導入する。
従来の指標と提案指標の両方を用いて評価した実験結果から,本モデルでは高スペクトル画像の高画質・多彩な生成が可能であり,高スペクトルデータ生成の進歩が期待できることが示された。
関連論文リスト
- D2C: Unlocking the Potential of Continuous Autoregressive Image Generation with Discrete Tokens [80.75893450536577]
モデル生成能力を向上させる新しい2段階法であるD2Cを提案する。
第1段階では、小さな離散値発生器を用いて粗粒度画像特徴を表す離散値トークンをサンプリングする。
第2段階では、離散トークンシーケンスに基づいて、きめ細かい画像特徴を表す連続値トークンを学習する。
論文 参考訳(メタデータ) (2025-03-21T13:58:49Z) - Language-Informed Hyperspectral Image Synthesis for Imbalanced-Small Sample Classification via Semi-Supervised Conditional Diffusion Model [1.9746060146273674]
本稿では,新しい言語インフォームドハイパースペクトル画像合成法であるTxt2HSI-LDM(VAE)を提案する。
ハイパースペクトルデータの高次元性に対処するため、普遍変分オートエンコーダ(VAE)は、データを低次元の潜在空間にマッピングするように設計されている。
VAEは、拡散モデルによって生成された潜時空間から言語条件を入力としてHSIをデコードする。
論文 参考訳(メタデータ) (2025-02-27T02:35:49Z) - Meissonic: Revitalizing Masked Generative Transformers for Efficient High-Resolution Text-to-Image Synthesis [62.57727062920458]
本稿では,非自己回帰型マスク画像モデリング(MIM)をSDXLのような最先端拡散モデルに匹敵するレベルまで高めるMeissonicを提案する。
高品質なトレーニングデータを活用し、人間の嗜好スコアから得られるマイクロ条件を統合し、特徴圧縮層を用いる。
我々のモデルは、高画質の高精細画像を生成する際に、SDXLのような既存のモデルに適合するだけでなく、しばしば性能を上回ります。
論文 参考訳(メタデータ) (2024-10-10T17:59:17Z) - Enhancing Hyperspectral Images via Diffusion Model and Group-Autoencoder
Super-resolution Network [29.6360974619655]
Group-Autoencoder (GAE)フレームワークは、高次元ハイパースペクトルデータを低次元潜在空間に符号化する。
DMGASRの高効率HSI SRモデル(DMGASR)
自然と遠隔の両方のハイパースペクトルデータセットに対する実験結果から,提案手法は視覚的・計量的にも他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-27T07:57:28Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Global Context with Discrete Diffusion in Vector Quantised Modelling for
Image Generation [19.156223720614186]
ベクトル量子変分オートエンコーダと自己回帰モデルとを生成部として統合することにより、画像生成における高品質な結果が得られる。
本稿では,VQ-VAEからのコンテンツリッチな離散視覚コードブックの助けを借りて,この離散拡散モデルにより,グローバルな文脈で高忠実度画像を生成することができることを示す。
論文 参考訳(メタデータ) (2021-12-03T09:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。