論文の概要: Hyperspectral Image Generation with Unmixing Guided Diffusion Model
- arxiv url: http://arxiv.org/abs/2506.02601v3
- Date: Tue, 19 Aug 2025 01:33:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 11:25:17.700667
- Title: Hyperspectral Image Generation with Unmixing Guided Diffusion Model
- Title(参考訳): Unmixing Guided Diffusion Modelを用いたハイパースペクトル画像生成
- Authors: Shiyu Shen, Bin Pan, Ziye Zhang, Zhenwei Shi,
- Abstract要約: ハイパースペクトル画像合成(Hyperspectral image synthesis)は、サンプルの多様性を制限する条件付き生成パラダイムによって制約されているが、関心が高まり続けている問題である。
ハイパースペクトルアンミキシングによって明示的に導かれる拡散フレームワークを導入し,課題を克服する。
このアプローチは、(i)画像領域から低次元のアバンダンス多様体に生成を射影する未混合オートエンコーダと、(ii)非負性および和対1の制約を強制するアバンダンス拡散プロセスの2つの協調的なコンポーネントを統合する。
- 参考スコア(独自算出の注目度): 21.078386095749398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address hyperspectral image (HSI) synthesis, a problem that has garnered growing interest yet remains constrained by the conditional generative paradigms that limit sample diversity. While diffusion models have emerged as a state-of-the-art solution for high-fidelity image generation, their direct extension from RGB to hyperspectral domains is challenged by the high spectral dimensionality and strict physical constraints inherent to HSIs. To overcome the challenges, we introduce a diffusion framework explicitly guided by hyperspectral unmixing. The approach integrates two collaborative components: (i) an unmixing autoencoder that projects generation from the image domain into a low-dimensional abundance manifold, thereby reducing computational burden while maintaining spectral fidelity; and (ii) an abundance diffusion process that enforces non-negativity and sum-to-one constraints, ensuring physical consistency of the synthesized data. We further propose two evaluation metrics tailored to hyperspectral characteristics. Comprehensive experiments, assessed with both conventional measures and the proposed metrics, demonstrate that our method produces HSIs with both high quality and diversity, advancing the state of the art in hyperspectral data generation.
- Abstract(参考訳): ハイパースペクトル画像合成 (HSI) は, サンプルの多様性を制限する条件付き生成パラダイムによって制約されているが, 関心が高まりつつある問題である。
高忠実度画像生成の最先端ソリューションとして拡散モデルが登場したが、RGBからハイパースペクトル領域への直接拡張は、高スペクトル次元とHSI固有の厳密な物理的制約によって挑戦されている。
これらの課題を克服するために、ハイパースペクトルアンミックスによって明示的に導かれる拡散フレームワークを導入する。
このアプローチは2つの協力的なコンポーネントを統合します。
一 画像領域から低次元のアバンダンス多様体に生成物を投射し、スペクトル忠実性を維持しつつ計算負担を軽減する未混合オートエンコーダ
(II)非負性および和対一の制約を強制し、合成データの物理的整合性を確保する、豊富な拡散過程。
さらに,高スペクトル特性に適した2つの評価指標を提案する。
従来手法と提案手法を併用した総合的な実験により,高スペクトルデータ生成の最先端化を図り,高品質・多様性の両面からHISを生成できることが実証された。
関連論文リスト
- D2C: Unlocking the Potential of Continuous Autoregressive Image Generation with Discrete Tokens [80.75893450536577]
モデル生成能力を向上させる新しい2段階法であるD2Cを提案する。
第1段階では、小さな離散値発生器を用いて粗粒度画像特徴を表す離散値トークンをサンプリングする。
第2段階では、離散トークンシーケンスに基づいて、きめ細かい画像特徴を表す連続値トークンを学習する。
論文 参考訳(メタデータ) (2025-03-21T13:58:49Z) - Language-Informed Hyperspectral Image Synthesis for Imbalanced-Small Sample Classification via Semi-Supervised Conditional Diffusion Model [1.9746060146273674]
本稿では,新しい言語インフォームドハイパースペクトル画像合成法であるTxt2HSI-LDM(VAE)を提案する。
ハイパースペクトルデータの高次元性に対処するため、普遍変分オートエンコーダ(VAE)は、データを低次元の潜在空間にマッピングするように設計されている。
VAEは、拡散モデルによって生成された潜時空間から言語条件を入力としてHSIをデコードする。
論文 参考訳(メタデータ) (2025-02-27T02:35:49Z) - Stabilize the Latent Space for Image Autoregressive Modeling: A Unified Perspective [52.778766190479374]
遅延ベース画像生成モデルは、画像生成タスクにおいて顕著な成功を収めた。
同じ遅延空間を共有するにもかかわらず、自己回帰モデルは画像生成において LDM や MIM よりもかなり遅れている。
本稿では,画像生成モデルのための遅延空間を安定化する,単純だが効果的な離散画像トークン化手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T12:13:17Z) - Meissonic: Revitalizing Masked Generative Transformers for Efficient High-Resolution Text-to-Image Synthesis [62.57727062920458]
本稿では,非自己回帰型マスク画像モデリング(MIM)をSDXLのような最先端拡散モデルに匹敵するレベルまで高めるMeissonicを提案する。
高品質なトレーニングデータを活用し、人間の嗜好スコアから得られるマイクロ条件を統合し、特徴圧縮層を用いる。
我々のモデルは、高画質の高精細画像を生成する際に、SDXLのような既存のモデルに適合するだけでなく、しばしば性能を上回ります。
論文 参考訳(メタデータ) (2024-10-10T17:59:17Z) - Enhancing Hyperspectral Images via Diffusion Model and Group-Autoencoder
Super-resolution Network [29.6360974619655]
Group-Autoencoder (GAE)フレームワークは、高次元ハイパースペクトルデータを低次元潜在空間に符号化する。
DMGASRの高効率HSI SRモデル(DMGASR)
自然と遠隔の両方のハイパースペクトルデータセットに対する実験結果から,提案手法は視覚的・計量的にも他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-27T07:57:28Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - DDRF: Denoising Diffusion Model for Remote Sensing Image Fusion [7.06521373423708]
生成モデルとしてのデノシング拡散モデルは、画像生成の分野で多くの注目を集めている。
画像融合フィールドへの拡散モデルを導入し、画像融合タスクを画像から画像への変換として扱う。
本手法は,画像融合タスクに拡散モデルを適用するために,他の作業に刺激を与え,この分野の洞察を得ることができる。
論文 参考訳(メタデータ) (2023-04-10T12:28:27Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z) - Global Context with Discrete Diffusion in Vector Quantised Modelling for
Image Generation [19.156223720614186]
ベクトル量子変分オートエンコーダと自己回帰モデルとを生成部として統合することにより、画像生成における高品質な結果が得られる。
本稿では,VQ-VAEからのコンテンツリッチな離散視覚コードブックの助けを借りて,この離散拡散モデルにより,グローバルな文脈で高忠実度画像を生成することができることを示す。
論文 参考訳(メタデータ) (2021-12-03T09:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。