論文の概要: G-ZAP: A Generalizable Zero-Shot Framework for Arbitrary-Scale Pansharpening
- arxiv url: http://arxiv.org/abs/2603.14412v1
- Date: Sun, 15 Mar 2026 14:55:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.797661
- Title: G-ZAP: A Generalizable Zero-Shot Framework for Arbitrary-Scale Pansharpening
- Title(参考訳): G-ZAP: 任意スケールパンシャーピングのための一般化可能なゼロショットフレームワーク
- Authors: Zhiqi Yang, Shan Yin, Jingze Liang, Liang-Jian Deng,
- Abstract要約: 任意のスケールのパンシャーピングのための一般化可能なゼロショットフレームワークを提案する。
G-ZAPはクロスレゾリューション、クロスシーン、クロスセンサーの一般化を扱う。
Pan-scale fusion の下で、視覚的品質と定量的メトリクスの両面で、最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 18.81080340178801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pansharpening aims to fuse a high-resolution panchromatic (PAN) image and a low-resolution multispectral (LRMS) image to produce a high-resolution multispectral (HRMS) image. Recent deep models have achieved strong performance, yet they typically rely on large-scale pretraining and often generalize poorly to unseen real-world image pairs.Prior zero-shot approaches improve real-scene generalization but require per-image optimization, hindering weight reuse, and the above methods are usually limited to a fixed scale.To address this issue, we propose G-ZAP, a generalizable zero-shot framework for arbitrary-scale pansharpening, designed to handle cross-resolution, cross-scene, and cross-sensor generalization.G-ZAP adopts a feature-based implicit neural representation (INR) fusion network as the backbone and introduces a multi-scale, semi-supervised training scheme to enable robust generalization.Extensive experiments on multiple real-world datasets show that G-ZAP achieves state-of-the-art results under PAN-scale fusion in both visual quality and quantitative metrics.Notably, G-ZAP supports weight reuse across image pairs while maintaining competitiveness with per-pair retraining, demonstrating strong potential for efficient real-world deployment.
- Abstract(参考訳): Pansharpeningは、高分解能パンクロマティック(PAN)画像と低分解能マルチスペクトル(LRMS)画像を融合して高分解能マルチスペクトル(HRMS)画像を作成することを目的としている。
近年の深層モデルは高い性能を達成しているが、一般的には大規模事前学習に頼っており、実世界の実世界のイメージペアに不適当に一般化することが多い。Prior Zero-shotアプローチは、実世界の一般化を改善するが、画像ごとの最適化、重量再利用の妨げとなり、上記の手法は通常固定スケールに制限される。この問題に対処するために、G-ZAPを提案する。G-ZAPは、任意のスケールのパンシャーピングのための一般化可能なゼロショットフレームワークで、クロスレゾリューション、クロスシーン、クロスセンサーの一般化を扱うように設計されている。G-ZAPは、機能ベースの暗黙的ニューラルネットワーク(INR)融合をバックボーンとして採用し、マルチスケールで半教師付きのトレーニングスキームを導入する。G-ZAPは、G-ZAPが複数の実世界のデータセットにおいて、より堅牢な一般化を実現するための、多層的な訓練手法である。
関連論文リスト
- Universal Pansharpening Foundation Model [67.10467574892282]
高分解能マルチスペクトル(MS)画像は、テクスチャリッチパンクロマティック(PAN)画像と低分解能MS画像からのスペクトル特性から空間的詳細を統合することで生成する。
本稿では,衛星非依存およびシーンロバスト融合のための普遍的パンシャーピング基盤モデルFoundPSを提案する。
論文 参考訳(メタデータ) (2026-03-04T08:30:15Z) - Chain-of-Zoom: Extreme Super-Resolution via Scale Autoregression and Preference Alignment [51.99765487172328]
CoZ(Chain-of-zoom)は、SISRをマルチスケール対応プロンプトを備えた中間スケールステートの連鎖に分解するフレームワークである。
視覚的手がかりは高倍率で減少するため、視覚言語モデル(VLM)によって生成されたマルチスケール対応テキストプロンプトで各ズームステップを拡大する。
実験により、CoZでラップされた標準4x拡散SRモデルが256倍拡大し、高い知覚品質と忠実度が得られることが示された。
論文 参考訳(メタデータ) (2025-05-24T08:50:08Z) - Two-Stage Random Alternation Framework for One-Shot Pansharpening [12.385955231193675]
本稿では,任意のマルチスペクトル(MS)/パンクロマティック(PAN)ペアに対して,インスタンス固有の最適化を行う2段階ランダム交互化フレームワーク(TRA-PAN)を提案する。
TRA-PANは、縮小解像度画像からの強い監督制約とフル解像度画像の物理的特性を効果的に統合する。
実験の結果,TRA-PANは実世界のシナリオにおいて,定量的な測定値と視覚的品質において,最先端(SOTA)手法よりも優れていた。
論文 参考訳(メタデータ) (2025-05-10T09:26:22Z) - Balancing Efficiency and Quality: MoEISR for Arbitrary-Scale Image Super-Resolution [11.256166497045792]
我々は、新しい効率的なフレームワーク、Mixture-of-Experts Implicit Super-Resolution(MoEISR)を紹介する。
MoEISRは、軽量マッパーモジュールを使用して、最も適切なデコードの専門家を各ピクセルに動的に割り当てる。
実験により,MoEISRはピーク信号対雑音比 (PSNR) と同等あるいは優れたピーク信号対雑音比 (PSNR) を提供しながら,大量の浮動小数点演算 (FLOPs) を効果的に低減できることを示した。
論文 参考訳(メタデータ) (2023-11-20T05:34:36Z) - Adaptive adversarial training method for improving multi-scale GAN based
on generalization bound theory [14.562893624131531]
本稿では、特定のモデルのトレーニング解析にPAC-Bayes一般化境界理論を導入することを先導した。
我々は,マルチスケールGANの画像操作能力を大幅に向上させる適応的学習法を提案する。
特に,画像超解像復元作業において,提案手法により訓練されたマルチスケールGANモデルは,自然画像品質評価器(NIQE)の100%削減,根平均二乗誤差(RMSE)の60%削減を実現している。
論文 参考訳(メタデータ) (2022-11-30T07:11:56Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Memory-augmented Deep Unfolding Network for Guided Image
Super-resolution [67.83489239124557]
誘導画像超解像(GISR)は、HR画像の誘導の下で低解像度(LR)目標画像の空間分解能を高めて高解像度(HR)目標画像を得る。
従来のモデルベース手法は主に画像全体を取り、HR目標画像とHRガイダンス画像との事前分布を仮定する。
HR目標画像上で2種類の事前性を持つGISRの最大後部(MAP)推定モデルを提案する。
論文 参考訳(メタデータ) (2022-02-12T15:37:13Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Joint Face Completion and Super-resolution using Multi-scale Feature
Relation Learning [26.682678558621625]
本稿では,MFG-GAN(MFG-GAN)を用いたマルチスケール機能グラフ生成手法を提案する。
GANに基づいて、MFG-GANはグラフ畳み込みとピラミッドネットワークを統合し、隠蔽された低解像度の顔画像を非隠蔽の高解像度の顔画像に復元する。
パブリックドメインCelebAとHelenデータベースの実験結果から,提案手法は顔超解像(最大4倍または8倍)と顔補完を同時に行う上で,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-02-29T13:31:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。