論文の概要: Training and Inference within 1 Second -- Tackle Cross-Sensor Degradation of Real-World Pansharpening with Efficient Residual Feature Tailoring
- arxiv url: http://arxiv.org/abs/2508.07369v1
- Date: Sun, 10 Aug 2025 14:39:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.827192
- Title: Training and Inference within 1 Second -- Tackle Cross-Sensor Degradation of Real-World Pansharpening with Efficient Residual Feature Tailoring
- Title(参考訳): 1秒以内のトレーニングと推論 -高能率残像分割による実世界パンシャーペンのタックルクロスセンサ劣化-
- Authors: Tianyu Xin, Jin-Liang Xiao, Zeyu Xia, Shan Yin, Liang-Jian Deng,
- Abstract要約: 既存のクロスセンサー劣化に対処する方法には、再訓練モデルやゼロショット法がある。
本手法は,深層学習に基づくパンシャーピングモデルにおいて,まずモジュラ分解を行う。
このインターフェースでFeature Tailorが統合され、機能レベルでのクロスセンサーの劣化に対処します。
- 参考スコア(独自算出の注目度): 7.471505633354803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods for pansharpening have advanced rapidly, yet models pretrained on data from a specific sensor often generalize poorly to data from other sensors. Existing methods to tackle such cross-sensor degradation include retraining model or zero-shot methods, but they are highly time-consuming or even need extra training data. To address these challenges, our method first performs modular decomposition on deep learning-based pansharpening models, revealing a general yet critical interface where high-dimensional fused features begin mapping to the channel space of the final image. % may need revisement A Feature Tailor is then integrated at this interface to address cross-sensor degradation at the feature level, and is trained efficiently with physics-aware unsupervised losses. Moreover, our method operates in a patch-wise manner, training on partial patches and performing parallel inference on all patches to boost efficiency. Our method offers two key advantages: (1) $\textit{Improved Generalization Ability}$: it significantly enhance performance in cross-sensor cases. (2) $\textit{Low Generalization Cost}$: it achieves sub-second training and inference, requiring only partial test inputs and no external data, whereas prior methods often take minutes or even hours. Experiments on the real-world data from multiple datasets demonstrate that our method achieves state-of-the-art quality and efficiency in tackling cross-sensor degradation. For example, training and inference of $512\times512\times8$ image within $\textit{0.2 seconds}$ and $4000\times4000\times8$ image within $\textit{3 seconds}$ at the fastest setting on a commonly used RTX 3090 GPU, which is over 100 times faster than zero-shot methods.
- Abstract(参考訳): パンシャーペンの深層学習法は急速に進歩しているが、特定のセンサーのデータに基づいて事前訓練されたモデルは、しばしば他のセンサーのデータにはあまり一般化しない。
このようなクロスセンサーの劣化に対処する既存の手法には、モデルの再訓練やゼロショット法があるが、それらは非常に時間を要するか、追加のトレーニングデータを必要とする。
これらの課題に対処するために,本手法はまず,深層学習に基づくパンシャープモデル上でモジュール分解を行い,高次元フューズド特徴が最終画像のチャネル空間にマッピングされる一般的なインターフェースを明らかにする。
このインターフェースは、機能レベルでのクロスセンサー劣化に対応するために統合され、物理を意識した教師なしの損失で効率的に訓練される。
さらに,本手法はパッチワイド方式で動作し,部分パッチをトレーニングし,全パッチに対して並列推論を行い,効率を向上する。
1 $\textit{Improved Generalization Ability}$: クロスセンサーケースの性能を大幅に向上させる。
(2) $\textit{Low Generalization Cost}$: サブ秒のトレーニングと推論を実現し、部分的なテスト入力のみを必要とし、外部データを必要としない。
複数のデータセットから得られた実世界のデータについて実験したところ、我々の手法はクロスセンサー劣化に対処する上で、最先端の品質と効率を達成できることがわかった。
例えば、512\times512\times8$ image in $\textit{0.2 seconds}$と4000\times4000\times8$ image in $\textit{3 seconds}$ at the fastest setting on a RTX 3090 GPU。
関連論文リスト
- SWIFT: A General Sensitive Weight Identification Framework for Fast Sensor-Transfer Pansharpening [16.578857961692716]
Pansharpeningは、高分解能パノクロマトグラフィ(PAN)画像と低分解能マルチスペクトル(LRMS)画像を融合して高分解能マルチスペクトル(HRMS)画像を生成することを目的としている。
深層学習に基づく手法は有望な性能を達成したが、通常、目に見えないセンサーのデータに適用すると、厳しい性能劣化に悩まされる。
クロスセンサ適応のための高速かつ汎用的なフレームワークSWIFTを提案する。
論文 参考訳(メタデータ) (2025-07-27T15:06:05Z) - CAT: A Conditional Adaptation Tailor for Efficient and Effective Instance-Specific Pansharpening on Real-World Data [7.471505633354803]
本稿では、特定の入力インスタンスに適応し、トレーニングと推論の両方を短時間で完了する効率的なフレームワークを提案する。
本手法は,512times512$イメージのトレーニングと推論の両方を,textit0.4 seconds$で実現する。
論文 参考訳(メタデータ) (2025-04-14T14:04:55Z) - Bridging the Gap Between End-to-End and Two-Step Text Spotting [88.14552991115207]
ブリッジングテキストスポッティングは、2段階のメソッドでエラーの蓄積と最適化性能の問題を解決する新しいアプローチである。
提案手法の有効性を広範囲な実験により実証する。
論文 参考訳(メタデータ) (2024-04-06T13:14:04Z) - Practical cross-sensor color constancy using a dual-mapping strategy [0.0]
提案手法では,D65条件下では,テストセンサからの単純な白点のみを必要とする。
第2のマッピングフェーズでは、再構成された画像データをスパースに変換し、軽量な多層パーセプトロン(MLP)モデルで最適化する。
このアプローチは、センサの相違を効果的に低減し、主要なクロスセンサー手法と同等の性能を提供する。
論文 参考訳(メタデータ) (2023-11-20T13:58:59Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Sample and Computation Redistribution for Efficient Face Detection [137.19388513633484]
トレーニングデータサンプリングと計算分布戦略は、効率的で正確な顔検出の鍵です。
scrfdf34は、最高の競合製品であるTinaFaceを3.86%(ハードセットでのAP)で上回り、GPU上でVGA解像度画像でmph3$times$より高速です。
論文 参考訳(メタデータ) (2021-05-10T23:51:14Z) - Seasonal Contrast: Unsupervised Pre-Training from Uncurated Remote
Sensing Data [64.40187171234838]
季節的コントラスト(SeCo)は、リモートセンシング表現のドメイン内事前トレーニングにラベルのないデータを活用するための効果的なパイプラインである。
SeCoは、転送学習を容易にし、再リモートセンシングアプリケーションの急速な進歩を可能にするために公開されます。
論文 参考訳(メタデータ) (2021-03-30T18:26:39Z) - Displacement-Invariant Cost Computation for Efficient Stereo Matching [122.94051630000934]
ディープラーニング手法は、前例のない不一致の精度を得ることによって、ステレオマッチングのリーダーボードを支配してきた。
しかし、その推測時間は一般的に540p画像の秒数で遅い。
本研究では,4次元特徴量を必要としないEmphdisplacement-invariant cost moduleを提案する。
論文 参考訳(メタデータ) (2020-12-01T23:58:16Z) - Syn2Real Transfer Learning for Image Deraining using Gaussian Processes [92.15895515035795]
CNNに基づく画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
実世界の完全ラベル付き画像デライニングデータセットを取得する上での課題により、既存の手法は合成されたデータのみに基づいて訓練される。
本稿では,ガウス過程に基づく半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T00:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。