論文の概要: Enpowering Your Pansharpening Models with Generalizability: Unified Distribution is All You Need
- arxiv url: http://arxiv.org/abs/2510.22217v1
- Date: Sat, 25 Oct 2025 08:35:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.92108
- Title: Enpowering Your Pansharpening Models with Generalizability: Unified Distribution is All You Need
- Title(参考訳): 一般化可能なパンハーペンモデルに力を与える: 統一された配布は必要なすべて
- Authors: Yongchuan Cui, Peng Liu, Hui Zhang,
- Abstract要約: リモートセンシングパンシャーピングのための既存のディープラーニングベースのモデルは、トレーニングデータセットに例外的なパフォーマンスを示す。
統一分布戦略 (UniPAN) を用いて, 汎スハーペンモデルに一般化性を持たせるための新しい, 直感的なアプローチを提案する。
UniPANは、統一された一貫したディストリビューション上でモデルをトレーニングし、テストすることを目的としている。
- 参考スコア(独自算出の注目度): 5.760136281781073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deep learning-based models for remote sensing pansharpening exhibit exceptional performance on training datasets. However, due to sensor-specific characteristics and varying imaging conditions, these models suffer from substantial performance degradation when applied to unseen satellite data, lacking generalizability and thus limiting their applicability. We argue that the performance drops stem primarily from distributional discrepancies from different sources and the key to addressing this challenge lies in bridging the gap between training and testing distributions. To validate the idea and further achieve a "train once, deploy forever" capability, this paper introduces a novel and intuitive approach to enpower any pansharpening models with generalizability by employing a unified distribution strategy (UniPAN). Specifically, we construct a distribution transformation function that normalizes the pixels sampled from different sources to conform to an identical distribution. The deep models are trained on the transformed domain, and during testing on new datasets, the new data are also transformed to match the training distribution. UniPAN aims to train and test the model on a unified and consistent distribution, thereby enhancing its generalizability. Extensive experiments validate the efficacy of UniPAN, demonstrating its potential to significantly enhance the performance of deep pansharpening models across diverse satellite sensors. Codes: https://github.com/yc-cui/UniPAN.
- Abstract(参考訳): リモートセンシングパンシャーピングのための既存のディープラーニングベースのモデルは、トレーニングデータセットに例外的なパフォーマンスを示す。
しかし、センサ固有の特性と様々な撮像条件により、これらのモデルは、目に見えない衛星データに適用された場合、かなりの性能劣化に悩まされ、一般化性に欠け、適用性が制限される。
この課題に対処する鍵となるのは,トレーニングとテストのギャップを埋めることにある。
そこで本研究では, 統一分布戦略 (UniPAN) を用いて, パンシャーピングモデルに一般化性を持たせるための, 新規かつ直感的なアプローチを提案する。
具体的には、異なるソースからサンプリングされた画素を正規化して同一分布に適合する分布変換関数を構築する。
深層モデルは変換されたドメインに基づいてトレーニングされ、新しいデータセットのテスト中に、トレーニング分布に合わせて新しいデータも変換される。
UniPANは、統一された一貫したディストリビューション上でモデルをトレーニングし、テストすることを目的としている。
広範にわたる実験により、UniPANの有効性が検証され、多様な衛星センサーにわたる深度パンシャーピングモデルの性能を著しく向上させる可能性が示された。
コード:https://github.com/yc-cui/UniPAN
関連論文リスト
- FDS: Feedback-guided Domain Synthesis with Multi-Source Conditional Diffusion Models for Domain Generalization [19.0284321951354]
ドメイン一般化技術は、トレーニング中に新しいデータ分布をシミュレートすることで、モデルロバスト性を高めることを目的としている。
本稿では、拡散モデルを用いて新しい擬似ドメインを合成するFDS、フィードバック誘導ドメイン合成法を提案する。
本手法は, 領域一般化性能のベンチマークを, 様々な課題のあるデータセットに分けて設定することを示す。
論文 参考訳(メタデータ) (2024-07-04T02:45:29Z) - FedUV: Uniformity and Variance for Heterogeneous Federated Learning [5.9330433627374815]
フェデレーション学習は、広く分散されたデータでニューラルネットワークをトレーニングするための有望なフレームワークである。
最近の研究によると、ネットワークの最終層が局所バイアスの傾向が最も大きいためである。
凍結重量が一定の特異値をもたらすという観測によって動機付けられた重みにSVDを適用して分類器の訓練力学を考察する。
論文 参考訳(メタデータ) (2024-02-27T15:53:15Z) - Adaptive Test-Time Personalization for Federated Learning [51.25437606915392]
テスト時パーソナライズド・フェデレーション・ラーニング(TTPFL)と呼ばれる新しい設定を導入する。
TTPFLでは、クライアントはテスト期間中にラベル付きデータに頼ることなく、教師なしの方法でグローバルモデルをローカルに適応する。
本稿では,ソースドメイン間の分散シフトから,モデル内の各モジュールの適応率を適応的に学習する ATP という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T20:42:47Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Synthetic-to-Real Domain Generalized Semantic Segmentation for 3D Indoor
Point Clouds [69.64240235315864]
本稿では,本課題に対して,合成-実領域一般化設定を提案する。
合成と実世界のポイントクラウドデータのドメインギャップは、主に異なるレイアウトとポイントパターンにあります。
CINMixとMulti-prototypeの両方が分配ギャップを狭めることを示した。
論文 参考訳(メタデータ) (2022-12-09T05:07:43Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - WILDS: A Benchmark of in-the-Wild Distribution Shifts [157.53410583509924]
分散シフトは、ワイルドにデプロイされた機械学習システムの精度を実質的に低下させることができる。
分散シフトの多様な範囲を反映した8つのベンチマークデータセットのキュレーションコレクションであるWILDSを紹介します。
本研究は, 標準訓練の結果, 分布性能よりも, 分布域外性能が有意に低下することを示す。
論文 参考訳(メタデータ) (2020-12-14T11:14:56Z) - Robust Federated Learning: The Case of Affine Distribution Shifts [41.27887358989414]
我々は,ユーザのサンプルの分布変化に対して良好な性能を実現するための,堅牢なフェデレーション学習アルゴリズムを開発した。
新しいテストユーザにおいて,アフィン分布シフトは学習者分類器の性能を著しく低下させるのに十分であることを示す。
論文 参考訳(メタデータ) (2020-06-16T03:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。