論文の概要: CBEN -- A Multimodal Machine Learning Dataset for Cloud Robust Remote Sensing Image Understanding
- arxiv url: http://arxiv.org/abs/2602.12652v1
- Date: Fri, 13 Feb 2026 06:24:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.867208
- Title: CBEN -- A Multimodal Machine Learning Dataset for Cloud Robust Remote Sensing Image Understanding
- Title(参考訳): CBEN - クラウドロバストリモートセンシング画像理解のためのマルチモーダル機械学習データセット
- Authors: Marco Stricker, Masakazu Iwamura, Koichi Kise,
- Abstract要約: クラウドレス分析は、マシンラーニングのデータセットやメソッドから、クラウドイメージを除外して実行されることが多い。
クラウドロバストな方法は、雲の影響を受けないモダリティであるレーダーと光学データを組み合わせることで達成できる。
本研究は,光・レーダレーダレーダを併用して訓練した最先端の手法が,曇り画像上で評価した場合,23~33ポイントの性能低下を被ることを示す。
- 参考スコア(独自算出の注目度): 4.405830705915443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clouds are a common phenomenon that distorts optical satellite imagery, which poses a challenge for remote sensing. However, in the literature cloudless analysis is often performed where cloudy images are excluded from machine learning datasets and methods. Such an approach cannot be applied to time sensitive applications, e.g., during natural disasters. A possible solution is to apply cloud removal as a preprocessing step to ensure that cloudfree solutions are not failing under such conditions. But cloud removal methods are still actively researched and suffer from drawbacks, such as generated visual artifacts. Therefore, it is desirable to develop cloud robust methods that are less affected by cloudy weather. Cloud robust methods can be achieved by combining optical data with radar, a modality unaffected by clouds. While many datasets for machine learning combine optical and radar data, most researchers exclude cloudy images. We identify this exclusion from machine learning training and evaluation as a limitation that reduces applicability to cloudy scenarios. To investigate this, we assembled a dataset, named CloudyBigEarthNet (CBEN), of paired optical and radar images with cloud occlusion for training and evaluation. Using average precision (AP) as the evaluation metric, we show that state-of-the-art methods trained on combined clear-sky optical and radar imagery suffer performance drops of 23-33 percentage points when evaluated on cloudy images. We then adapt these methods to cloudy optical data during training, achieving relative improvement of 17.2-28.7 percentage points on cloudy test cases compared with the original approaches. Code and dataset are publicly available at: https://github.com/mstricker13/CBEN
- Abstract(参考訳): 雲は光学衛星画像を歪ませる一般的な現象であり、リモートセンシングの課題となる。
しかしながら、文献では、クラウドレス分析は、機械学習のデータセットやメソッドからクラウドイメージを除外する場合にしばしば行われる。
このようなアプローチは、自然災害時に時間に敏感なアプリケーションに適用することはできない。
可能な解決策は、雲のないソリューションがそのような条件下で失敗しないように、クラウド除去を前処理のステップとして適用することである。
しかし、雲の除去方法はまだ研究されており、生成した視覚的アーティファクトのような欠点に悩まされている。
したがって、曇りの天候の影響を受けないクラウドロバストな手法を開発することが望ましい。
クラウドロバストな方法は、雲の影響を受けないモダリティであるレーダーと光学データを組み合わせることで達成できる。
機械学習のための多くのデータセットは光学データとレーダーデータを組み合わせているが、ほとんどの研究者は曇りの画像を除外している。
我々は、機械学習のトレーニングと評価からこの除外を、クラウドシナリオの適用性を低下させる制限として特定する。
これを調べるために、我々は、トレーニングと評価のために雲閉塞の光学画像とレーダー画像のペアからなるCloudyBigEarthNet (CBEN) というデータセットを組み立てた。
平均精度 (AP) を評価指標として, 露光画像とレーダ画像を組み合わせて訓練した最先端手法が, 曇り画像で評価した場合, 23~33ポイントの性能低下を被ることを示した。
次に、これらの手法をトレーニング中に曇り光データに適用し、元のアプローチと比較して、曇りテストケースの17.2~28.7ポイントの相対的な改善を実現した。
コードとデータセットは、https://github.com/mstricker13/CBENで公開されている。
関連論文リスト
- Not every day is a sunny day: Synthetic cloud injection for deep land cover segmentation robustness evaluation across data sources [1.5052861873036498]
土地被覆セマンティックセグメンテーション(LCS)のための改良されたディープラーニングは、ラベル付き衛星データに依存している。
既存のSentinel-2データセットのほとんどはクラウドフリーであり、雲が一般的である熱帯地域での有用性を制限している。
我々は,現実的な雲の覆いをシミュレートするクラウドインジェクションアルゴリズムを開発し,雲に妨害された光学画像によって生じるギャップをSentinel-1レーダーデータがどのように埋めるかを検証した。
論文 参考訳(メタデータ) (2025-10-03T13:51:35Z) - Weakly Supervised Cloud Detection Combining Spectral Features and Multi-Scale Deep Network [12.520904004953344]
本稿では,スペクトル特徴とマルチスケールシーンレベル深層ネットワーク(SpecMCD)を組み合わせた弱教師付きクラウド検出手法を提案する。
提案手法のF1スコアは7.82%以上の改善を示し,クラウド検出におけるSpecMCD法の優位性と可能性を強調した。
論文 参考訳(メタデータ) (2025-10-01T08:32:49Z) - IDF-CR: Iterative Diffusion Process for Divide-and-Conquer Cloud Removal in Remote-sensing Images [55.40601468843028]
雲除去のための反復拡散過程(IDF-CR)を提案する。
IDF-CRは、ピクセル空間と潜在空間に対処する2段階のモデルに分けられる。
潜時空間の段階では、拡散モデルは低品質の雲の除去を高品質のクリーンな出力に変換する。
論文 参考訳(メタデータ) (2024-03-18T15:23:48Z) - Learning Real-World Image De-Weathering with Imperfect Supervision [57.748585821252824]
既存の現実世界のデヒータリングデータセットは、接地トラス画像と入力された劣化画像の間に、一貫性のない照明、位置、テクスチャを示すことが多い。
我々は、入力劣化画像と可能な限り一貫性のある擬似ラベルを生成するための一貫性ラベルコンストラクタ(CLC)を開発した。
我々は,従来の不完全ラベルと擬似ラベルを組み合わせることで,情報割当戦略による脱ウェザリングモデルを共同で監督する。
論文 参考訳(メタデータ) (2023-10-23T14:02:57Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - UnCRtainTS: Uncertainty Quantification for Cloud Removal in Optical
Satellite Time Series [19.32220113046804]
本稿では,新しいアテンションベースアーキテクチャを組み合わせたマルチテンポラルクラウド除去手法UnCRtainTSを紹介する。
予測された不確かさがいかにして再現品質を正確に制御できるかを示す。
論文 参考訳(メタデータ) (2023-04-11T19:27:18Z) - Unsupervised Point Cloud Representation Learning with Deep Neural
Networks: A Survey [104.71816962689296]
大規模クラウドラベリングの制約により,教師なしのポイントクラウド表現学習が注目されている。
本稿では、ディープニューラルネットワークを用いた教師なしポイントクラウド表現学習の総合的なレビューを提供する。
論文 参考訳(メタデータ) (2022-02-28T07:46:05Z) - Cloud detection machine learning algorithms for PROBA-V [6.950862982117125]
本論文で提示されるアルゴリズムの目的は,ピクセル当たりのクラウドフラグを正確に提示するクラウドを検出することである。
提案手法の有効性を,多数の実proba-v画像を用いて検証した。
論文 参考訳(メタデータ) (2020-12-09T18:23:59Z) - Thick Cloud Removal of Remote Sensing Images Using Temporal Smoothness
and Sparsity-Regularized Tensor Optimization [3.65794756599491]
リモートセンシング画像では、雲の影に付随する厚い雲の存在が確率の高い事象である。
時間的滑らか度と空間規則化テンソル最適化に基づくリモートセンシング画像の高密度クラウド除去手法を提案する。
論文 参考訳(メタデータ) (2020-08-11T05:59:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。