論文の概要: OBSUM: An object-based spatial unmixing model for spatiotemporal fusion
of remote sensing images
- arxiv url: http://arxiv.org/abs/2310.09517v1
- Date: Sat, 14 Oct 2023 07:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 19:50:11.685705
- Title: OBSUM: An object-based spatial unmixing model for spatiotemporal fusion
of remote sensing images
- Title(参考訳): obsum : リモートセンシング画像の時空間融合のためのオブジェクトベース空間混合モデル
- Authors: Houcai Guo, Dingqi Ye, Lorenzo Bruzzone
- Abstract要約: 本研究では,オブジェクトベース画像解析と空間アンミックスを組み込んだオブジェクトベース空間アンミックスモデル(OBSUM)を提案する。
OBSUMは、ベース解像度日に1つの微細画像と、ベース解像度日に1つの粗い画像のみを用いることで、ベース日付時に粗い画像を必要とせずに適用することができる。
様々なリモートセンシングアプリケーションをサポートするために、高精度で高解像度の時系列を生成することができる。
- 参考スコア(独自算出の注目度): 12.94382743563284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatiotemporal fusion aims to improve both the spatial and temporal
resolution of remote sensing images, thus facilitating time-series analysis at
a fine spatial scale. However, there are several important issues that limit
the application of current spatiotemporal fusion methods. First, most
spatiotemporal fusion methods are based on pixel-level computation, which
neglects the valuable object-level information of the land surface. Moreover,
many existing methods cannot accurately retrieve strong temporal changes
between the available high-resolution image at base date and the predicted one.
This study proposes an Object-Based Spatial Unmixing Model (OBSUM), which
incorporates object-based image analysis and spatial unmixing, to overcome the
two abovementioned problems. OBSUM consists of one preprocessing step and three
fusion steps, i.e., object-level unmixing, object-level residual compensation,
and pixel-level residual compensation. OBSUM can be applied using only one fine
image at the base date and one coarse image at the prediction date, without the
need of a coarse image at the base date. The performance of OBSUM was compared
with five representative spatiotemporal fusion methods. The experimental
results demonstrated that OBSUM outperformed other methods in terms of both
accuracy indices and visual effects over time-series. Furthermore, OBSUM also
achieved satisfactory results in two typical remote sensing applications.
Therefore, it has great potential to generate accurate and high-resolution
time-series observations for supporting various remote sensing applications.
- Abstract(参考訳): 時空間融合は、リモートセンシング画像の空間分解能と時間分解能の両方を改善することを目的としている。
しかし、現在の時空間融合法の適用を制限する重要な問題がいくつかある。
第一に、ほとんどの時空間融合法は、土地表面の貴重なオブジェクトレベル情報を無視したピクセルレベルの計算に基づいている。
さらに,多くの既存手法では,高分解能画像と予測画像との間の時間的変化を正確に検索することはできない。
本研究では、オブジェクトベース画像解析と空間アンミックスを組み込んだオブジェクトベース空間アンミックスモデル(OBSUM)を提案し、上記の2つの問題を克服する。
OBSUMは1つの前処理ステップと3つの融合ステップ、すなわちオブジェクトレベルのアンミックス、オブジェクトレベルの残差補償、ピクセルレベルの残差補償から構成される。
OBSUMは、ベース日における1つの微細画像と予測日に1つの粗い画像のみを用いて適用でき、ベース日における粗い画像は不要である。
OBSUMの性能を5種類の時空間融合法と比較した。
実験の結果,obsumは他の手法よりも精度指標と視覚効果の両方において優れていた。
さらに、OBSUMは2つの典型的なリモートセンシングアプリケーションで満足な結果を得た。
そのため、様々なリモートセンシングアプリケーションをサポートするために、高精度で高解像度の時系列観測を生成することができる。
関連論文リスト
- DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - Physics-Inspired Degradation Models for Hyperspectral Image Fusion [61.743696362028246]
ほとんどの融合法は、融合アルゴリズム自体にのみ焦点をあて、分解モデルを見落としている。
我々は、LR-HSIとHR-MSIの劣化をモデル化するための物理インスパイアされた劣化モデル(PIDM)を提案する。
提案したPIDMは,既存の核融合法における核融合性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-04T09:07:28Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Detecting changes to sub-diffraction objects with quantum-optimal speed
and accuracy [0.8409980020848168]
サブディフレクション・インコヒーレント・イメージングにおいて、固定された誤報率に対して最良平均遅延を評価する。
我々は、入射光強度の直接焦点面検出が、準最適検出レイテンシを実現することを発見した。
我々は,モンテカルロシミュレーションを用いて,変化検出手法の検証を行い,従来の受信機と量子最適受信機とのギャップの増大を定量化する。
論文 参考訳(メタデータ) (2023-08-14T16:48:18Z) - Hyperspectral and Multispectral Image Fusion Using the Conditional
Denoising Diffusion Probabilistic Model [18.915369996829984]
DDPM-Fus と呼ばれる条件付きデノナイジング拡散確率モデルに基づく深部融合法を提案する。
1つの屋内および2つのリモートセンシングデータセットで行った実験は、他の高度な深層学習に基づく融合法と比較して、提案モデルが優れていることを示す。
論文 参考訳(メタデータ) (2023-07-07T07:08:52Z) - Cloud removal Using Atmosphere Model [7.259230333873744]
クラウド除去はリモートセンシングデータ分析において重要なタスクである。
本稿では,低階及びスパースモデルの枠組みにおける任意のシーンの画像の時間的シーケンスに散乱モデルを用いることを提案する。
本研究では,クラウドカバーを定量的に解析できる半現実的シミュレーション手法を開発した。
論文 参考訳(メタデータ) (2022-10-05T01:29:19Z) - Understanding the Impact of Image Quality and Distance of Objects to
Object Detection Performance [11.856281907276145]
本稿では,物体検出精度と計算コストに及ぼす空間分解能,振幅分解能,物体距離の影響について検討する。
入力画像の空間分解能に基づいて特徴ピラミッドと検出ヘッドのスケール数を変化させる解像度適応型 YOLOv5 (RA-YOLO) を開発した。
論文 参考訳(メタデータ) (2022-09-17T04:05:01Z) - Decoupling and Recoupling Spatiotemporal Representation for RGB-D-based
Motion Recognition [62.46544616232238]
従来の動作認識手法は、密結合した多時間表現によって有望な性能を実現している。
本稿では,RGB-D に基づく動作認識において引き起こされた表現を分離し,再分離することを提案する。
論文 参考訳(メタデータ) (2021-12-16T18:59:47Z) - Learning to Estimate Hidden Motions with Global Motion Aggregation [71.12650817490318]
閉塞は、局所的な証拠に依存する光学フローアルゴリズムに重大な課題をもたらす。
最初の画像でピクセル間の長距離依存性を見つけるために,グローバルモーションアグリゲーションモジュールを導入する。
遮蔽領域における光流量推定が非遮蔽領域における性能を損なうことなく大幅に改善できることを実証した。
論文 参考訳(メタデータ) (2021-04-06T10:32:03Z) - Predicting Landsat Reflectance with Deep Generative Fusion [2.867517731896504]
公共の衛星ミッションは一般に、空間分解能と時間分解能のトレードオフに結びついている。
これにより、植生の監視や人道的行動を支援する能力が損なわれる。
空間的・時間的特性の異なる製品を融合させて高解像度の光学画像を生成するための深部生成モデルの可能性を探る。
論文 参考訳(メタデータ) (2020-11-09T21:06:04Z) - Hyperspectral-Multispectral Image Fusion with Weighted LASSO [68.04032419397677]
本稿では,高スペクトル像と多スペクトル像を融合させて高画質な高スペクトル出力を実現する手法を提案する。
提案したスパース融合と再構成は,既存の公開画像の手法と比較して,定量的に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-03-15T23:07:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。