論文の概要: Model-based image adjustment for a successful pansharpening
- arxiv url: http://arxiv.org/abs/2103.03062v1
- Date: Thu, 4 Mar 2021 14:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-07 11:27:09.906394
- Title: Model-based image adjustment for a successful pansharpening
- Title(参考訳): パンスハーピング成功のためのモデルベースの画像調整
- Authors: Gintautas Palubinskas
- Abstract要約: マルチレゾリューション画像融合やパンシャープ化の強化のために,新しいモデルに基づく画像調整を提案する。
異なるセンサにおける全エネルギー不均衡を補償するために仮想バンドが導入された。
例えば、コンポーネント置換ベースのメソッドのパフォーマンス品質が大幅に向上できることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new model-based image adjustment for the enhancement of multi-resolution
image fusion or pansharpening is proposed. Such image adjustment is needed for
most pansharpening methods using panchromatic band and/or intensity image
(calculated as a weighted sum of multispectral bands) as an input. Due various
reasons, e.g. calibration inaccuracies, usage of different sensors, input
images for pansharpening: low resolution multispectral image or more precisely
the calculated intensity image and high resolution panchromatic image may
differ in values of their physical properties, e.g. radiances or reflectances
depending on the processing level. But the same objects/classes in both images
should exhibit similar values or more generally similar statistics. Similarity
definition will depend on a particular application. For a successful fusion of
data from two sensors the energy balance between radiances/reflectances of both
sensors should hold. A virtual band is introduced to compensate for total
energy disbalance in different sensors. Its estimation consists of several
steps: first, weights for individual spectral bands are estimated in a low
resolution scale, where both multispectral and panchromatic images (low pass
filtered version) are available, then, the estimated virtual band is up-sampled
to a high scale and, finally, high resolution panchromatic band is corrected by
subtracting virtual band. This corrected panchromatic band is used instead of
original panchromatic image in the following pansharpening. It is shown, for
example, that the performance quality of component substitution based methods
can be increased significantly.
- Abstract(参考訳): マルチレゾリューション画像融合やパンシャルペニングの強化のための新しいモデルベース画像調整法を提案する。
このような画像調整は、パンクロマティックバンドおよび/または強度画像(マルチスペクトルバンドの重み付き合計として計算される)を入力として使用するほとんどのパンスハーピング方法に必要です。
様々な理由で、例えば。
キャリブレーションの不正確さ、異なるセンサーの使用、パンシャーパニングのための入力画像:低分解能マルチスペクトル画像またはより正確には計算された強度画像と高分解能パンクロマティック画像は、物理特性の値が異なる可能性がある。
処理レベルに応じて、線量または反射率。
しかし、両方の画像の同じオブジェクト/クラスは、類似の値またはより一般的に類似の統計を示すべきである。
類似性の定義は特定のアプリケーションに依存する。
2つのセンサーからのデータをうまく融合させるには、両方のセンサーの放射/反射のエネルギーバランスを保つ必要がある。
異なるセンサにおける全エネルギー不均衡を補償するために仮想バンドが導入された。
まず、個々のスペクトル帯域の重みを低分解能スケールで推定し、マルチスペクトル画像とパンクロマティック画像の両方(低パスフィルタバージョン)が利用可能であり、推定仮想バンドを高スケールにアップサンプリングし、最終的に、高分解能パンクロマティックバンドを仮想バンドを減算して補正する。
次のpansharpeningで元のpanchromaticイメージの代りにこの訂正されたpanchromaticバンドが使用されます。
例えば、コンポーネント置換ベースのメソッドのパフォーマンス品質が大幅に向上できることが示されている。
関連論文リスト
- Single-image camera calibration with model-free distortion correction [0.0]
本稿では,センサ全体をカバーする平面スペックルパターンの単一画像から,キャリブレーションパラメータの完全な集合を推定する方法を提案する。
デジタル画像相関を用いて校正対象の画像点と物理点との対応を求める。
プロシージャの最後には、画像全体にわたって、密度が高く均一なモデルフリーな歪みマップが得られる。
論文 参考訳(メタデータ) (2024-03-02T16:51:35Z) - PanBench: Towards High-Resolution and High-Performance Pansharpening [16.16122045172545]
パンシャーペニングでは、高解像度のマルチスペクトル画像と高解像度のパンクロマティック画像を統合することで、高解像度で多スペクトル情報を保持するイメージを合成する。
本稿では,主眼衛星を含む高解像度マルチシーンデータセットであるPanBenchを紹介する。
高忠実度合成を実現するために,Pansharpening のための Cascaded Multiscale Fusion Network (CMFNet) を提案する。
論文 参考訳(メタデータ) (2023-11-20T10:57:23Z) - Breaking Modality Disparity: Harmonized Representation for Infrared and
Visible Image Registration [66.33746403815283]
シーン適応型赤外線と可視画像の登録を提案する。
我々は、異なる平面間の変形をシミュレートするためにホモグラフィーを用いる。
我々は、まず、赤外線と可視画像のデータセットが不一致であることを示す。
論文 参考訳(メタデータ) (2023-04-12T06:49:56Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Deep dual stream residual network with contextual attention for
pansharpening of remote sensing images [2.210012031884757]
本稿では,新しい2重注意型2ストリームネットワークを提案する。
まず、両方の画像に対して2つの別々のネットワークを使って特徴抽出し、抽出した特徴を再分類するアテンション機構を備えたエンコーダから始める。
次に、コンパクトな表現を形成する特徴を画像再構成ネットワークに融合してパンシャーペン画像を生成する。
論文 参考訳(メタデータ) (2022-07-25T09:28:11Z) - Deep Metric Color Embeddings for Splicing Localization in Severely
Degraded Images [10.091921099426294]
本研究では,画像に最適なスプライシング検出法を提案する。
我々は、照明色やカメラの白点推定に敏感な深度距離空間を学習するが、一方、対象色の変化には敏感である。
本評価では,強い圧縮とダウンサンプリングの対象となる画像に対して,提案手法の組込み空間が技量を上回り,その性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-21T21:28:40Z) - Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy [182.4997117953705]
ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T15:45:35Z) - Modulated Contrast for Versatile Image Synthesis [60.304183493234376]
MoNCEは画像のコントラストを導入し、多面的画像間距離の知覚のための校正基準を学習する。
複数の対照的な目的に対して協調的に負のサンプルのプッシュ力を変調するために,MoNCEの最適輸送を導入する。
論文 参考訳(メタデータ) (2022-03-17T14:03:46Z) - SIPSA-Net: Shift-Invariant Pan Sharpening with Moving Object Alignment
for Satellite Imagery [36.24121979886052]
Pan-sharpeningは、高分解能(HR)パンクロマティック(PAN)画像とその対応する低分解能(LR)マルチスペクトル(MS)画像をマージしてHR-MSおよびpan-sharpened画像を作成するプロセスです。
異なるセンサーの位置、特性、取得時間のために、PANとMSの画像ペアは、しばしばさまざまな量の不整合を有する傾向があります。
本研究では,移動対象領域の大きな不整合を考慮した移動対象アライメント(SIPSA-Net)によるシフト不変パンスハーピングを提案する。
論文 参考訳(メタデータ) (2021-05-06T02:27:50Z) - Image Matching with Scale Adjustment [57.18604132027697]
可変スケールでの関心点の表現と抽出方法を示す。
2つの異なる解像度で2つの画像を比較する方法を提案する。
論文 参考訳(メタデータ) (2020-12-10T11:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。