論文の概要: Foundation Models for Generalist Geospatial Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2310.18660v1
- Date: Sat, 28 Oct 2023 10:19:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 17:21:32.530159
- Title: Foundation Models for Generalist Geospatial Artificial Intelligence
- Title(参考訳): 一般地理空間人工知能の基礎モデル
- Authors: Johannes Jakubik, Sujit Roy, C. E. Phillips, Paolo Fraccaro, Denys
Godwin, Bianca Zadrozny, Daniela Szwarcman, Carlos Gomes, Gabby Nyirjesy,
Blair Edwards, Daiki Kimura, Naomi Simumba, Linsong Chu, S. Karthik
Mukkavilli, Devyani Lambhate, Kamal Das, Ranjini Bangalore, Dario Oliveira,
Michal Muszynski, Kumar Ankur, Muthukumaran Ramasubramanian, Iksha Gurung,
Sam Khallaghi, Hanxi (Steve) Li, Michael Cecil, Maryam Ahmadi, Fatemeh Kordi,
Hamed Alemohammad, Manil Maskey, Raghu Ganti, Kommy Weldemariam, Rahul
Ramachandran
- Abstract要約: 本稿では,大規模データに基づく基礎モデルの事前学習と微調整を効果的に行うための第1種フレームワークを提案する。
我々はこの枠組みを利用して、マルチスペクトル衛星画像の1TB以上を事前トレーニングしたトランスフォーマーベースの基礎モデルであるPrithviを開発した。
- 参考スコア(独自算出の注目度): 3.7002058945990415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant progress in the development of highly adaptable and reusable
Artificial Intelligence (AI) models is expected to have a significant impact on
Earth science and remote sensing. Foundation models are pre-trained on large
unlabeled datasets through self-supervision, and then fine-tuned for various
downstream tasks with small labeled datasets. This paper introduces a
first-of-a-kind framework for the efficient pre-training and fine-tuning of
foundational models on extensive geospatial data. We have utilized this
framework to create Prithvi, a transformer-based geospatial foundational model
pre-trained on more than 1TB of multispectral satellite imagery from the
Harmonized Landsat-Sentinel 2 (HLS) dataset. Our study demonstrates the
efficacy of our framework in successfully fine-tuning Prithvi to a range of
Earth observation tasks that have not been tackled by previous work on
foundation models involving multi-temporal cloud gap imputation, flood mapping,
wildfire scar segmentation, and multi-temporal crop segmentation. Our
experiments show that the pre-trained model accelerates the fine-tuning process
compared to leveraging randomly initialized weights. In addition, pre-trained
Prithvi compares well against the state-of-the-art, e.g., outperforming a
conditional GAN model in multi-temporal cloud imputation by up to 5pp (or 5.7%)
in the structural similarity index. Finally, due to the limited availability of
labeled data in the field of Earth observation, we gradually reduce the
quantity of available labeled data for refining the model to evaluate data
efficiency and demonstrate that data can be decreased significantly without
affecting the model's accuracy. The pre-trained 100 million parameter model and
corresponding fine-tuning workflows have been released publicly as open source
contributions to the global Earth sciences community through Hugging Face.
- Abstract(参考訳): 高度に適応可能で再利用可能な人工知能(AI)モデルの開発における重要な進歩は、地球科学とリモートセンシングに大きな影響を与えると期待されている。
ファンデーションモデルは、セルフスーパービジョンを通じて大きなラベル付きデータセット上で事前トレーニングされ、小さなラベル付きデータセットでさまざまな下流タスクのために微調整される。
本稿では,広域空間データに基づく基礎モデルの効率的な事前学習と微調整のための第1種フレームワークを提案する。
我々は、この枠組みを利用して、harmonized landsat-sentinel 2 (hls)データセットから1tb以上のマルチスペクトル衛星画像に事前学習されたトランスフォーマティブベースの地理空間基礎モデルprithviを開発した。
本研究は,多時期雲間隙計算,洪水マッピング,山火事跡のセグメンテーション,多時期作物のセグメンテーションを含む基礎モデルに関する過去の研究で取り組まなかった,地球観測タスクに対する我々のフレームワークの有効性を実証するものである。
実験では,事前学習したモデルが,ランダム初期化重みの活用と比較して微調整過程を加速することを示した。
さらに、プレトレーニングされたプリスヴィは、構造的類似度指数において最大5pp(または5.7%)の条件付きGANモデルよりも優れた条件付きGANモデルとよく比較される。
最後に,地球観測の分野でラベル付きデータの可用性が限られているため,モデルを精錬するためのラベル付きデータの量を徐々に削減し,データの効率を評価するとともに,モデルの精度に影響を与えずにデータを大幅に低減できることを示す。
事前訓練された1億のパラメータモデルとそれに対応する微調整ワークフローが、Hugging Faceを通じて、グローバル地球科学コミュニティへのオープンソースコントリビューションとして公開された。
関連論文リスト
- Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Self-Supervised Radio Pre-training: Toward Foundational Models for Spectrogram Learning [6.1339395157466425]
Foundational Deep Learning(DL)モデルは、多種多様で多様なデータセットに基づいてトレーニングされた一般的なモデルである。
本稿では,無線信号を用いた基礎DLモデルの事前学習のための,新しい自己教師型学習手法であるMasked Spectrogram Modelingを紹介する。
論文 参考訳(メタデータ) (2024-11-14T23:56:57Z) - HyperspectralViTs: General Hyperspectral Models for On-board Remote Sensing [21.192836739734435]
機械学習モデルによるハイパースペクトルデータのオンボード処理は、幅広いタスクに対して前例のない量の自律性を可能にする。
これにより早期警戒システムが可能となり、衛星の星座にまたがる自動スケジューリングなどの新機能が実現される可能性がある。
本研究では,高スペクトル次元のデータを用いたエンドツーエンドの学習を支援する,高速かつ正確な機械学習アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-22T17:59:55Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Simulation-Enhanced Data Augmentation for Machine Learning Pathloss
Prediction [9.664420734674088]
本稿では,機械学習パスロス予測のための新しいシミュレーション強化データ拡張手法を提案する。
本手法は,細胞被覆シミュレータから生成した合成データと,独立して収集した実世界のデータセットを統合する。
合成データの統合は、異なる環境におけるモデルの一般化可能性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-02-03T00:38:08Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Ensemble Machine Learning Model Trained on a New Synthesized Dataset
Generalizes Well for Stress Prediction Using Wearable Devices [3.006016887654771]
本研究では,少数の被験者を含むデータセット上に構築されたモデルの一般化能力について検討した。
本研究では,新たな未知のデータに対する予測パワーを測定するために,勾配押し上げと人工ニューラルネットワークを組み合わせたアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T00:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。