論文の概要: SHARE: A Fully Unsupervised Framework for Single Hyperspectral Image Restoration
- arxiv url: http://arxiv.org/abs/2601.13987v1
- Date: Tue, 20 Jan 2026 14:01:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.340168
- Title: SHARE: A Fully Unsupervised Framework for Single Hyperspectral Image Restoration
- Title(参考訳): SHARE: 単一ハイパースペクトル画像復元のための完全に教師なしのフレームワーク
- Authors: Jiangwei Xie, Zhang Wen, Mike Davies, Dongdong Chen,
- Abstract要約: ハイパースペクトル画像(HSI)の復元は、計算画像とコンピュータビジョンの基本的な課題である。
本稿では、低ランクスペクトルモデリングと幾何同値原理を統一する、完全に教師なしのフレームワークであるSHAREを提案する。
提案手法は最先端の教師なし手法よりも優れており,教師付き手法に匹敵する性能を実現している。
- 参考スコア(独自算出の注目度): 9.908527979711902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperspectral image (HSI) restoration is a fundamental challenge in computational imaging and computer vision. It involves ill-posed inverse problems, such as inpainting and super-resolution. Although deep learning methods have transformed the field through data-driven learning, their effectiveness hinges on access to meticulously curated ground-truth datasets. This fundamentally restricts their applicability in real-world scenarios where such data is unavailable. This paper presents SHARE (Single Hyperspectral Image Restoration with Equivariance), a fully unsupervised framework that unifies geometric equivariance principles with low-rank spectral modelling to eliminate the need for ground truth. SHARE's core concept is to exploit the intrinsic invariance of hyperspectral structures under differentiable geometric transformations (e.g. rotations and scaling) to derive self-supervision signals through equivariance consistency constraints. Our novel Dynamic Adaptive Spectral Attention (DASA) module further enhances this paradigm shift by explicitly encoding the global low-rank property of HSI and adaptively refining local spectral-spatial correlations through learnable attention mechanisms. Extensive experiments on HSI inpainting and super-resolution tasks demonstrate the effectiveness of SHARE. Our method outperforms many state-of-the-art unsupervised approaches and achieves performance comparable to that of supervised methods. We hope that our approach will shed new light on HSI restoration and broader scientific imaging scenarios. The code will be released at https://github.com/xuwayyy/SHARE.
- Abstract(参考訳): ハイパースペクトル画像(HSI)の復元は、計算画像とコンピュータビジョンの基本的な課題である。
これは、塗装や超解像といった不適切な逆問題を含む。
深層学習は、データ駆動学習を通じて分野を変えてきたが、その有効性は、厳密にキュレートされた地道データセットへのアクセスに依存している。
これにより、そのようなデータが利用できない現実世界のシナリオにおける適用性が根本的に制限される。
本稿では,SHARE(Single Hyperspectral Image Restoration with Equivariance)について述べる。
SHAREの中核となる概念は、微分可能な幾何変換(例えば回転やスケーリング)の下での超スペクトル構造の内在的不変性を利用して、等分散一貫性の制約によって自己超越信号を導出することである。
我々の新しい動的適応スペクトルアテンション(DASA)モジュールは、HSIのグローバル低ランク特性を明示的に符号化し、学習可能なアテンション機構を通じて局所スペクトル-空間相関を適応的に洗練することにより、このパラダイムシフトをさらに強化する。
HSI塗布および超解像タスクに関する大規模な実験は、SHAREの有効性を実証している。
提案手法は最先端の教師なし手法よりも優れており,教師付き手法に匹敵する性能を実現している。
われわれのアプローチは、HSI修復とより広範な科学的画像シナリオに新たな光を当てることを願っている。
コードはhttps://github.com/xuwayyy/SHAREでリリースされる。
関連論文リスト
- Scale-aware Adaptive Supervised Network with Limited Medical Annotations [17.42211316792232]
SASNetは、新しいスケール対応適応リウェイト機構を通じて、低レベルと高レベルの両方の特徴表現を利用するデュアルブランチアーキテクチャである。
このアプローチでは,スケールアウェアのAdaptive Reweight戦略を含む,3つの重要な方法論的イノベーションを導入している。
SASNetは、最先端の半教師付き手法を超越したラベル付きデータで優れた性能を達成する。
論文 参考訳(メタデータ) (2026-01-02T23:55:17Z) - Hyperspectral Super-Resolution with Inter-Image Variability via Degradation-based Low-Rank and Residual Fusion Method [2.317803962255901]
マルチスペクトル画像(MSI)によるハイパースペクトル画像の融合は、HSIの空間分解能を高める効果的な方法である。
取得条件が異なるため、スペクトルのばらつきや、HSIとMSIの間の空間的局所的な変化が存在する可能性がある。
既存の方法は通常、直接変換を適用した画像間の可変性を扱う。
本稿では, この課題に対処するために, 劣化に基づく低ランク・残留核融合(DLRRF)モデルを提案する。
論文 参考訳(メタデータ) (2025-11-19T02:45:31Z) - Improving Deepfake Detection with Reinforcement Learning-Based Adaptive Data Augmentation [60.04281435591454]
CRDA(Curriculum Reinforcement-Learning Data Augmentation)は、マルチドメインの偽造機能を段階的にマスターするための検出器を導く新しいフレームワークである。
私たちのアプローチの中心は、強化学習と因果推論を統合することです。
提案手法は検出器の一般化性を大幅に向上し,複数のクロスドメインデータセット間でSOTA法より優れている。
論文 参考訳(メタデータ) (2025-11-10T12:45:52Z) - Total Variation Subgradient Guided Image Fusion for Dual-Camera CASSI System [3.414706880536149]
分光画像技術は、スペクトル、空間、時間分解能のバランスをとる上で、長年にわたって根本的な課題に直面してきた。
従来のモデルベースの手法は、手作りの固有の画像に頼っているため、限られた性能を示す。
本稿では,全変動(TV)下降理論を統合したデュアルカメラCASSI再構成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-13T16:57:06Z) - Rotation Equivariant Arbitrary-scale Image Super-Resolution [62.41329042683779]
任意のスケールの超解像(ASISR)は、低解像度の入力画像から任意のスケールの高分解能回復を実現することを目的としている。
本研究では, 回転同変ASISR法の構築に尽力する。
論文 参考訳(メタデータ) (2025-08-07T08:51:03Z) - Manifold-aware Representation Learning for Degradation-agnostic Image Restoration [135.90908995927194]
画像復元(IR)は、ノイズ、ぼかし、迷路、雨、低照度といった様々な汚職に影響を受ける劣化した入力から高品質な画像を復元することを目的としている。
我々は、入力特徴空間を3つのセマンティックに整列した並列分岐に明示的に分解する1つのIRにおいて、すべてに統一されたフレームワークであるMIRAGEを提案する。
このモジュラ分解は、多種多様な分解の一般化と効率を大幅に改善する。
論文 参考訳(メタデータ) (2025-05-24T12:52:10Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Coarse-to-Fine Sparse Transformer for Hyperspectral Image Reconstruction [138.04956118993934]
本稿では, サース・トゥ・ファインス・スパース・トランス (CST) を用いた新しいトランス方式を提案する。
HSI再構成のための深層学習にHSI空間を埋め込んだCST
特に,CSTは,提案したスペクトル認識スクリーニング機構(SASM)を粗いパッチ選択に使用し,選択したパッチを,細かなピクセルクラスタリングと自己相似性キャプチャのために,カスタマイズしたスペクトル集約ハッシュ型マルチヘッド自己アテンション(SAH-MSA)に入力する。
論文 参考訳(メタデータ) (2022-03-09T16:17:47Z) - Unsupervised Alternating Optimization for Blind Hyperspectral Imagery
Super-resolution [40.350308926790255]
本稿では, 盲点HSI融合問題に対処するために, 盲点HSI SR法を提案する。
本稿ではまず,デジェネレーションモデルを推定し,遅延画像の再構成を行うために,逐次最適化に基づく深層フレームワークを提案する。
そして,ネットワークを事前学習するメタラーニングに基づく機構が提案され,ネットワークの速度と一般化能力を効果的に向上させることができる。
論文 参考訳(メタデータ) (2020-12-03T07:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。