論文の概要: Detecting Cloud Presence in Satellite Images Using the RGB-based CLIP
Vision-Language Model
- arxiv url: http://arxiv.org/abs/2308.00541v1
- Date: Tue, 1 Aug 2023 13:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 14:03:28.896995
- Title: Detecting Cloud Presence in Satellite Images Using the RGB-based CLIP
Vision-Language Model
- Title(参考訳): RGB-based CLIP Vision-Language Model を用いた衛星画像中の雲の存在検出
- Authors: Mikolaj Czerkawski, Robert Atkinson, Christos Tachtatzis
- Abstract要約: この研究は、雲によって影響を受ける衛星画像を特定するために、事前訓練されたCLIPビジョン言語モデルの能力を探求する。
このモデルを用いて雲の存在検知を行うためのいくつかの手法を提案し,評価した。
以上の結果から,CLIPモデルで学習した表現は,雲を含む衛星画像処理作業に有用であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work explores capabilities of the pre-trained CLIP vision-language model
to identify satellite images affected by clouds. Several approaches to using
the model to perform cloud presence detection are proposed and evaluated,
including a purely zero-shot operation with text prompts and several
fine-tuning approaches. Furthermore, the transferability of the methods across
different datasets and sensor types (Sentinel-2 and Landsat-8) is tested. The
results that CLIP can achieve non-trivial performance on the cloud presence
detection task with apparent capability to generalise across sensing modalities
and sensing bands. It is also found that a low-cost fine-tuning stage leads to
a strong increase in true negative rate. The results demonstrate that the
representations learned by the CLIP model can be useful for satellite image
processing tasks involving clouds.
- Abstract(参考訳): この研究は、雲によって影響を受ける衛星画像を特定するために、事前訓練されたCLIPビジョン言語モデルの能力を探求する。
テキストプロンプトによる純粋にゼロショット操作や微調整によるアプローチなど,クラウド存在検出にこのモデルを用いるいくつかの手法を提案し評価した。
さらに、異なるデータセットとセンサータイプ(Sentinel-2とLandsat-8)間でのメソッドの転送性をテストする。
CLIPがクラウド存在検知タスクにおいて非自明な性能を達成できることは、センシングのモダリティやセンサバンドをまたいで一般化できることが明らかである。
また, 低コストの微調整段階では, 真の負の上昇がみられた。
以上の結果から,CLIPモデルで学習した表現は,雲を含む衛星画像処理に有用であることが示唆された。
関連論文リスト
- Dual-Image Enhanced CLIP for Zero-Shot Anomaly Detection [58.228940066769596]
本稿では,統合視覚言語スコアリングシステムを活用したデュアルイメージ強化CLIP手法を提案する。
提案手法は,画像のペアを処理し,それぞれを視覚的参照として利用することにより,視覚的コンテキストによる推論プロセスを強化する。
提案手法は視覚言語による関節異常検出の可能性を大幅に活用し,従来のSOTA法と同等の性能を示す。
論文 参考訳(メタデータ) (2024-05-08T03:13:20Z) - BenchCloudVision: A Benchmark Analysis of Deep Learning Approaches for
Cloud Detection and Segmentation in Remote Sensing Imagery [0.0]
本稿では,雲の識別に応用した7つの最先端セマンティックセマンティックセマンティクスと検出アルゴリズムについて検討する。
モデルの適応性を高めるために、トレーニング中に使用される画像の種類とスペクトル帯域の量を含む重要な要素を解析する。
研究は、少数のスペクトルバンドだけでクラウドセグメンテーションを実行できる機械学習アルゴリズムを作成しようとしている。
論文 参考訳(メタデータ) (2024-02-21T16:32:43Z) - Learning to detect cloud and snow in remote sensing images from noisy
labels [26.61590605351686]
リモートセンシング画像におけるシーンの複雑さとクラウドタイプの多様性は、多くの不正確なラベルをもたらす。
本稿では,リモートセンシング画像の雲や雪の検出に対するラベルノイズの影響を初めて考察する。
論文 参考訳(メタデータ) (2024-01-17T03:02:31Z) - CLiSA: A Hierarchical Hybrid Transformer Model using Orthogonal Cross
Attention for Satellite Image Cloud Segmentation [5.178465447325005]
ディープラーニングアルゴリズムは画像セグメンテーション問題を解決するための有望なアプローチとして登場してきた。
本稿では,Lipschitz Stable Attention NetworkによるCLiSA - Cloudセグメンテーションという,効果的なクラウドマスク生成のためのディープラーニングモデルを提案する。
Landsat-8, Sentinel-2, Cartosat-2sを含む複数の衛星画像データセットの質的および定量的な結果を示す。
論文 参考訳(メタデータ) (2023-11-29T09:31:31Z) - DiffCR: A Fast Conditional Diffusion Framework for Cloud Removal from
Optical Satellite Images [27.02507384522271]
本稿では,光衛星画像の高速クラウド除去に深部畳み込みネットワークを用いた条件付き拡散を利用したDiffCRという新しいフレームワークを提案する。
条件付き特徴抽出のための分離エンコーダを導入し、条件付き入力と合成出力との外観情報の密接な類似性を確保するために、ロバストな色表現を提供する。
論文 参考訳(メタデータ) (2023-08-08T17:34:28Z) - Exploring the Application of Large-scale Pre-trained Models on Adverse
Weather Removal [97.53040662243768]
ネットワークが異なる気象条件を適応的に処理できるようにするために,CLIP埋め込みモジュールを提案する。
このモジュールは、CLIP画像エンコーダによって抽出されたサンプル特定気象と、パラメータセットによって学習された分布特定情報を統合する。
論文 参考訳(メタデータ) (2023-06-15T10:06:13Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - SatMAE: Pre-training Transformers for Temporal and Multi-Spectral
Satellite Imagery [74.82821342249039]
Masked Autoencoder(MAE)に基づく時間・マルチスペクトル衛星画像の事前学習フレームワークであるSatMAEについて述べる。
時間的情報を活用するために、時間にわたって画像パッチを個別にマスキングする時間的埋め込みを含む。
論文 参考訳(メタデータ) (2022-07-17T01:35:29Z) - City-scale Scene Change Detection using Point Clouds [71.73273007900717]
2つの異なる時間にカメラを設置して撮影した画像を用いて都市の構造変化を検出する手法を提案する。
変化検出のための2点雲の直接比較は、不正確な位置情報のため理想的ではない。
この問題を回避するために,ポイントクラウド上での深層学習に基づく非厳密な登録を提案する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2021-03-26T08:04:13Z) - Single Image Cloud Detection via Multi-Image Fusion [23.641624507709274]
アルゴリズム開発における主な課題は、注釈付きトレーニングデータを集めるコストである。
マルチイメージフュージョンの最近の進歩が、シングルイメージクラウド検出のブートストラップにどのように活用できるかを実証する。
我々は、ランドカバー用のピクセルごとのセマンティックラベリングとともに、Sentinel-2画像の大規模なデータセットを収集した。
論文 参考訳(メタデータ) (2020-07-29T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。