論文の概要: SAFE: a SAR Feature Extractor based on self-supervised learning and masked Siamese ViTs
- arxiv url: http://arxiv.org/abs/2407.00851v1
- Date: Sun, 30 Jun 2024 23:11:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 01:17:19.409879
- Title: SAFE: a SAR Feature Extractor based on self-supervised learning and masked Siamese ViTs
- Title(参考訳): SAFE:自己教師型学習とシームズViTを用いたSAR機能エクストラクタ
- Authors: Max Muzeau, Joana Frontera-Pons, Chengfang Ren, Jean-Philippe Ovarlez,
- Abstract要約: マスク付きシームズ・ビジョン・トランスフォーマーをベースとした新しい自己教師型学習フレームワークを提案し,SAFEと命名された汎用SAR機能エクストラクタを提案する。
提案手法は,厳密で一般化可能な特徴を抽出し,ラベルのないSARデータに基づいてモデルを訓練するために,対照的な学習原理を利用する。
サブアパーチャ分解や非特異化など,SAR画像特有のデータ拡張技術を導入する。
我々のネットワークは、評価に使用されるセンサーの訓練を受けなくても、数ショットの分類やセグメンテーションタスクにおいて、他の最先端の手法と競合したり、超えたりしています。
- 参考スコア(独自算出の注目度): 5.961207817077044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to its all-weather and day-and-night capabilities, Synthetic Aperture Radar imagery is essential for various applications such as disaster management, earth monitoring, change detection and target recognition. However, the scarcity of labeled SAR data limits the performance of most deep learning algorithms. To address this issue, we propose a novel self-supervised learning framework based on masked Siamese Vision Transformers to create a General SAR Feature Extractor coined SAFE. Our method leverages contrastive learning principles to train a model on unlabeled SAR data, extracting robust and generalizable features. SAFE is applicable across multiple SAR acquisition modes and resolutions. We introduce tailored data augmentation techniques specific to SAR imagery, such as sub-aperture decomposition and despeckling. Comprehensive evaluations on various downstream tasks, including few-shot classification, segmentation, visualization, and pattern detection, demonstrate the effectiveness and versatility of the proposed approach. Our network competes with or surpasses other state-of-the-art methods in few-shot classification and segmentation tasks, even without being trained on the sensors used for the evaluation.
- Abstract(参考訳): その全天候と昼夜の能力のため、災害管理、地球モニタリング、変化検出、目標認識などの様々な用途において、合成開口レーダー画像は不可欠である。
しかし、ラベル付きSARデータの不足により、ほとんどのディープラーニングアルゴリズムの性能が制限される。
この問題に対処するために,マスク付きシームズ・ビジョン・トランスフォーマーをベースとした,新たな自己教師型学習フレームワークを提案する。
提案手法は,厳密で一般化可能な特徴を抽出し,ラベルのないSARデータに基づいてモデルを訓練するために,対照的な学習原理を利用する。
SAFEは複数のSAR取得モードと解像度に適用できる。
サブアパーチャ分解や非特異化など,SAR画像特有のデータ拡張技術を導入する。
提案手法の有効性と汎用性を示すために, 少数ショット分類, セグメンテーション, 可視化, パターン検出など, 下流タスクの総合評価を行った。
我々のネットワークは、評価に使用されるセンサーの訓練を受けなくても、数ショットの分類やセグメンテーションタスクにおいて、他の最先端の手法と競合したり、超えたりしています。
関連論文リスト
- IncSAR: A Dual Fusion Incremental Learning Framework for SAR Target Recognition [7.9330990800767385]
破滅的な忘れ方として知られる新しいタスクを学ぶとき、モデルが古い知識を忘れる傾向は、未解決の課題である。
本稿では,SAR目標認識における破滅的忘れを緩和するために,IncSARと呼ばれる漸進的学習フレームワークを提案する。
IncSARはビジョントランスフォーマー(ViT)と、遅延融合戦略によって結合された個々のブランチにカスタム設計の畳み込みニューラルネットワーク(CNN)を備える。
論文 参考訳(メタデータ) (2024-10-08T08:49:47Z) - Towards SAR Automatic Target Recognition MultiCategory SAR Image Classification Based on Light Weight Vision Transformer [11.983317593939688]
本稿では,SAR画像の分類に軽量な視覚変換器モデルを適用しようとする。
構造全体がオープンアクセスされたSARデータセットによって検証された。
論文 参考訳(メタデータ) (2024-05-18T11:24:52Z) - SARatrX: Towards Building A Foundation Model for SAR Target Recognition [22.770010893572973]
我々は、SARatrXと呼ばれるSAR ATRの基礎モデルを構築するための最初の試みを行っている。
SARatrXは、自己教師付き学習(SSL)を通じて一般化可能な表現を学び、汎用的なSARターゲット検出と分類タスクへのラベル効率のモデル適応の基礎を提供する。
具体的には、SARatrXは0.18Mの未ラベルのSARターゲットサンプルでトレーニングされており、同時代のベンチマークを組み合わせてキュレーションされ、これまでで最大の公開データセットとなっている。
論文 参考訳(メタデータ) (2024-05-15T14:17:44Z) - Efficient Prompt Tuning of Large Vision-Language Model for Fine-Grained
Ship Classification [62.425462136772666]
リモートセンシング(RS-FGSC)における船のきめ細かい分類は、クラス間の高い類似性とラベル付きデータの限られた可用性のために大きな課題となる。
大規模な訓練済みビジョンランゲージモデル(VLM)の最近の進歩は、少数ショット学習やゼロショット学習において印象的な能力を示している。
本研究は, 船種別分類精度を高めるために, VLMの可能性を生かしたものである。
論文 参考訳(メタデータ) (2024-03-13T05:48:58Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Benchmarking Deep Learning Classifiers for SAR Automatic Target
Recognition [7.858656052565242]
本稿では,複数のSARデータセットを用いたSAR ATRの先進的な深層学習モデルを総合的にベンチマークする。
推論スループットと解析性能の観点から,分類精度のランタイム性能に関する5つの分類器の評価と比較を行った。
SAR ATRの領域では、すべてのモデルルールが疑わしいのです。
論文 参考訳(メタデータ) (2023-12-12T02:20:39Z) - SatMAE: Pre-training Transformers for Temporal and Multi-Spectral
Satellite Imagery [74.82821342249039]
Masked Autoencoder(MAE)に基づく時間・マルチスペクトル衛星画像の事前学習フレームワークであるSatMAEについて述べる。
時間的情報を活用するために、時間にわたって画像パッチを個別にマスキングする時間的埋め込みを含む。
論文 参考訳(メタデータ) (2022-07-17T01:35:29Z) - Remote Sensing Image Classification using Transfer Learning and
Attention Based Deep Neural Network [59.86658316440461]
本稿では、転送学習技術とマルチヘッドアテンションスキームを活用した、深層学習に基づくRSISCフレームワークを提案する。
提案したディープラーニングフレームワークは、ベンチマークNWPU-RESISC45データセットに基づいて評価され、最高の分類精度94.7%を達成する。
論文 参考訳(メタデータ) (2022-06-20T10:05:38Z) - Context-Preserving Instance-Level Augmentation and Deformable
Convolution Networks for SAR Ship Detection [50.53262868498824]
ランダムな方向と部分的な情報損失によるSAR画像のターゲット形状の変形は、SAR船の検出において必須の課題である。
ターゲット内の部分的な情報損失に頑健なディープネットワークをトレーニングするためのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2022-02-14T07:01:01Z) - Learning Efficient Representations for Enhanced Object Detection on
Large-scene SAR Images [16.602738933183865]
SAR(Synthetic Aperture Radar)画像のターゲットの検出と認識は難しい問題である。
近年開発されたディープラーニングアルゴリズムは,SAR画像の固有の特徴を自動的に学習することができる。
本稿では,効率的かつ堅牢なディープラーニングに基づくターゲット検出手法を提案する。
論文 参考訳(メタデータ) (2022-01-22T03:25:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。