論文の概要: SSL4EO-S12: A Large-Scale Multi-Modal, Multi-Temporal Dataset for
Self-Supervised Learning in Earth Observation
- arxiv url: http://arxiv.org/abs/2211.07044v2
- Date: Mon, 29 May 2023 13:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 03:05:42.377801
- Title: SSL4EO-S12: A Large-Scale Multi-Modal, Multi-Temporal Dataset for
Self-Supervised Learning in Earth Observation
- Title(参考訳): SSL4EO-S12:地球観測における自己教師付き学習のための大規模マルチモーダル・マルチテンポラルデータセット
- Authors: Yi Wang, Nassim Ait Ali Braham, Zhitong Xiong, Chenying Liu, Conrad M
Albrecht, Xiao Xiang Zhu
- Abstract要約: 自己教師による事前訓練は、人間のアノテーションなしで表現力のある表現を生成する可能性を秘めている。
我々は、グローバル、マルチモーダル、マルチシーズンの衛星画像コーパスを組み立てるために、ラベルのないRSデータセットSSL4EO-S12を共有している。
- 参考スコア(独自算出の注目度): 20.94411133447731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised pre-training bears potential to generate expressive
representations without human annotation. Most pre-training in Earth
observation (EO) are based on ImageNet or medium-size, labeled remote sensing
(RS) datasets. We share an unlabeled RS dataset SSL4EO-S12 (Self-Supervised
Learning for Earth Observation - Sentinel-1/2) to assemble a large-scale,
global, multimodal, and multi-seasonal corpus of satellite imagery from the ESA
Sentinel-1 \& -2 satellite missions. For EO applications we demonstrate
SSL4EO-S12 to succeed in self-supervised pre-training for a set of methods:
MoCo-v2, DINO, MAE, and data2vec. Resulting models yield downstream performance
close to, or surpassing accuracy measures of supervised learning. In addition,
pre-training on SSL4EO-S12 excels compared to existing datasets. We make openly
available the dataset, related source code, and pre-trained models at
https://github.com/zhu-xlab/SSL4EO-S12.
- Abstract(参考訳): 自己教師付き事前学習は、人間のアノテーションなしで表現表現を生成する可能性を秘めている。
地球観測(EO)におけるほとんどの事前トレーニングは、ImageNetまたは中規模のリモートセンシング(RS)データセットに基づいている。
rsデータセットssl4eo-s12 (self-supervised learning for earth observation - sentinel-1/2) を共有し,esa sentinel-1 \& -2衛星ミッションからの大規模,グローバル,マルチモーダル,マルチシーズンの衛星画像コーパスを組み立てる。
EOアプリケーションでは、SSL4EO-S12がMoCo-v2、DINO、MAE、Data2vecといったメソッドの自己教師型事前トレーニングに成功することを示す。
結果モデルによって、下流のパフォーマンスは、教師付き学習の精度測定に近づいたり、超えたりします。
さらに、SSL4EO-S12の事前トレーニングは、既存のデータセットと比較して優れている。
データセット、関連するソースコード、および事前トレーニングされたモデルをhttps://github.com/zhu-xlab/ssl4eo-s12で公開しています。
関連論文リスト
- On the Generalizability of Foundation Models for Crop Type Mapping [8.346555291145767]
自己教師付きおよび弱教師付き学習を用いて事前訓練された基礎モデルは、強力な伝達学習能力を示している。
本研究は,農業領域におけるEOファンデーションモデルによる新しい地域への移転能力について考察する。
論文 参考訳(メタデータ) (2024-09-14T14:43:57Z) - Semi-Supervised One-Shot Imitation Learning [83.94646047695412]
ワンショットのImitation Learningは、AIエージェントに1つのデモから新しいタスクを学ぶ能力を持たせることを目的としている。
我々は,学習エージェントにトラジェクトリの大規模なデータセットを提示する,半教師付きOSIL問題設定を導入する。
我々は,この半教師付きOSIL設定に適用可能なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-08-09T18:11:26Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - LMSYS-Chat-1M: A Large-Scale Real-World LLM Conversation Dataset [75.9621305227523]
LMSYS-Chat-1M(LMSYS-Chat-1M)について紹介する。
このデータセットは、VicunaのデモとArenaのWebサイトで、210KのIPアドレスから収集されています。
GPT-4と同様の動作を行うコンテンツモデレーションモデルの開発、安全性ベンチマークの構築、Vicunaと同様の動作を行う命令追従モデルのトレーニング、挑戦的なベンチマーク問題の作成、という4つのユースケースを通じて、その汎用性を実証する。
論文 参考訳(メタデータ) (2023-09-21T12:13:55Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - A generic self-supervised learning (SSL) framework for representation
learning from spectra-spatial feature of unlabeled remote sensing imagery [4.397725469518669]
自己教師付き学習(SSL)では、モデルが桁違いに遅延のないデータから表現を学習することができる。
この研究は、未ラベルデータのスペクトル空間情報の両方から表現を学習できる新しいSSLフレームワークを設計した。
論文 参考訳(メタデータ) (2023-06-27T23:50:43Z) - SSL4EO-L: Datasets and Foundation Models for Landsat Imagery [8.34029977985994]
ランドサット計画 (Landsat program) は、過去最長の地球観測計画であり、8つの衛星による50年以上のデータ取得である。
深層学習やリモートセンシングの普及にもかかわらず、ほとんどの研究者はランドサットの画像解析に決定木とランダムな森林を使っている。
本稿では,ランドサット衛星群を対象としたセルフ・スーパーバイザード・ラーニング・フォー・アース・オブ・オブ・アース・オブ・ザ・観察のために設計された最初のデータセットであるSSL4EO-Lを紹介する。
論文 参考訳(メタデータ) (2023-06-15T18:11:20Z) - Dual Learning for Large Vocabulary On-Device ASR [64.10124092250128]
デュアル・ラーニング(英: Dual learning)は、教師なしのデータを一度に2つの逆のタスクを解くことによって活用しようとする、半教師なし機械学習のパラダイムである。
本稿では,Librispeech全体をトレーニングしたオンデバイスサイズのストリーミングコンバータの解析を行い,LMを使わずにWERを10.7%/5.2%,LMを11.7%/16.4%改善したことを示す。
論文 参考訳(メタデータ) (2023-01-11T06:32:28Z) - Task-Customized Self-Supervised Pre-training with Scalable Dynamic
Routing [76.78772372631623]
セルフ教師付き事前トレーニングの一般的な実践は、できるだけ多くのデータを使用することである。
しかし、特定のダウンストリームタスクでは、事前トレーニングで無関係なデータを含むと、ダウンストリームのパフォーマンスが低下する可能性がある。
異なるタスクのための事前トレーニングで、異なるダウンストリームタスクにカスタマイズされたデータセットを使用することは、重荷であり、実現不可能である。
論文 参考訳(メタデータ) (2022-05-26T10:49:43Z) - Sound and Visual Representation Learning with Multiple Pretraining Tasks [104.11800812671953]
自己管理タスク(SSL)は、データと異なる特徴を明らかにする。
この作業は、下流のすべてのタスクをうまく一般化する複数のSSLタスク(Multi-SSL)を組み合わせることを目的としている。
音響表現の実験では、SSLタスクのインクリメンタルラーニング(IL)によるマルチSSLが、単一のSSLタスクモデルより優れていることが示されている。
論文 参考訳(メタデータ) (2022-01-04T09:09:38Z) - SEnSeI: A Deep Learning Module for Creating Sensor Independent Cloud
Masks [0.7340845393655052]
我々は、新しいニューラルネットワークアーキテクチャー、Sensor Independence(SEnSeI)のためのスペクトルエンコーダを導入する。
クラウドマスキングの問題,既存のいくつかのデータセット,Sentinel-2用の新たな無償データセットなどに注目した。
我々のモデルは、訓練した衛星(Sentinel-2とLandsat 8)の最先端性能を達成し、Landsat 7, Per'uSat-1、Sentinel-3 SLSTRのようなトレーニング中に観測されていないセンサーに外挿することができる。
論文 参考訳(メタデータ) (2021-11-16T10:47:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。