論文の概要: Uncertainty and Generalizability in Foundation Models for Earth Observation
- arxiv url: http://arxiv.org/abs/2409.08744v1
- Date: Fri, 13 Sep 2024 11:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 16:49:03.782694
- Title: Uncertainty and Generalizability in Foundation Models for Earth Observation
- Title(参考訳): 地球観測の基礎モデルの不確かさと一般化可能性
- Authors: Raul Ramos-Pollan, Freddie Kalaitzis, Karthick Panner Selvam,
- Abstract要約: 我々は,特定の関心領域(AOI)において,限られたラベル付け予算で下流タスク(植生被覆の推定など)を設計したいという視点を採っている。
既存のファンデーションモデル(FM)を利用することで、異なるがラベルに富んだAOIで下流モデルをトレーニングするかどうかを判断する必要があります。
本研究では,Sentinel 1 または Sentinel 2 の8つの既存のFMを入力データとして,ESA World Cover 製品からのクラスを下流タスクとして,大規模なアブレーション研究を行う。
- 参考スコア(独自算出の注目度): 1.3654846342364308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We take the perspective in which we want to design a downstream task (such as estimating vegetation coverage) on a certain area of interest (AOI) with a limited labeling budget. By leveraging an existing Foundation Model (FM) we must decide whether we train a downstream model on a different but label-rich AOI hoping it generalizes to our AOI, or we split labels in our AOI for training and validating. In either case, we face choices concerning what FM to use, how to sample our AOI for labeling, etc. which affect both the performance and uncertainty of the results. In this work, we perform a large ablative study using eight existing FMs on either Sentinel 1 or Sentinel 2 as input data, and the classes from the ESA World Cover product as downstream tasks across eleven AOIs. We do repeated sampling and training, resulting in an ablation of some 500K simple linear regression models. Our results show both the limits of spatial generalizability across AOIs and the power of FMs where we are able to get over 0.9 correlation coefficient between predictions and targets on different chip level predictive tasks. And still, performance and uncertainty vary greatly across AOIs, tasks and FMs. We believe this is a key issue in practice, because there are many design decisions behind each FM and downstream task (input modalities, sampling, architectures, pretraining, etc.) and usually a downstream task designer is aware of and can decide upon a few of them. Through this work, we advocate for the usage of the methodology herein described (large ablations on reference global labels and simple probes), both when publishing new FMs, and to make informed decisions when designing downstream tasks to use them.
- Abstract(参考訳): 我々は,特定の関心領域(AOI)において,限られたラベル付け予算で下流タスク(植生被覆の推定など)を設計したいという視点を採っている。
既存のファンデーションモデル(FM)を活用することで、AOIがAOIに一般化することを望んで、異なるがラベルに富んだAOIで下流モデルをトレーニングするか、トレーニングと検証のためにAOIにラベルを分割するかを判断する必要があります。
いずれの場合も、FMが何を使うか、ラベル付けのためにAOIをサンプルする方法など、結果のパフォーマンスと不確実性の両方に影響を与える選択肢に直面します。
本研究では,Sentinel 1 または Sentinel 2 の既存の8つの FM を入力データとして,ESA World Cover 製品からのクラスを,11個の AOI の下流タスクとして,大規模なアブレーション研究を行う。
我々は繰り返しサンプリングとトレーニングを行い、結果として500Kの単純な線形回帰モデルがアブレーションされる。
その結果,AOIにおける空間一般化可能性の限界と,異なるチップレベルの予測タスクにおいて,予測値と目標値との相関係数が0.9以上となるFMのパワーの両方が示された。
それでも、パフォーマンスと不確実性は、AOI、タスク、FMで大きく異なります。
なぜなら、各FMタスクと下流タスク(インプットモダリティ、サンプリング、アーキテクチャ、事前トレーニングなど)の背後には多くの設計上の決定があり、通常、下流タスクデザイナが認識し、そのいくつかを決定することができるからです。
本研究を通じて,本稿では,新たなFMを公開する際の方法論(参照グローバルラベルと簡単なプローブ)の活用と,ダウンストリームタスクを設計して使用する際の情報的意思決定の両面について論じる。
関連論文リスト
- Fortify Your Foundations: Practical Privacy and Security for Foundation Model Deployments In The Cloud [17.961272750854885]
ファンデーションモデル(FM)は自然言語処理などのタスクにおいて例外的なパフォーマンスを示す。
FMは、しばしば、プライベートデータに依存するRetrieval-Augmented Generation (RAG)システムに微調整または統合される。
本研究では,FM脅威モデルについて検討し,その安全性を確保するための様々なアプローチの実用性と包括性について考察する。
論文 参考訳(メタデータ) (2024-10-08T11:33:09Z) - Foundation Model or Finetune? Evaluation of few-shot semantic segmentation for river pollution [16.272314073324626]
ファンデーションモデル(FM)はAIの研究の一般的なトピックである。
本研究では,FMの性能を,セマンティックセグメンテーションのタスクにおける微調整された教師付きモデルと比較する。
微調整されたモデルは、データが不足している場合でも、テスト対象のFMより一貫して優れています。
論文 参考訳(メタデータ) (2024-09-05T17:59:32Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - DMoERM: Recipes of Mixture-of-Experts for Effective Reward Modeling [0.0]
我々は、Mixture-of-Experts(MoE)のアイデアを、報酬モデル(RM)トレーニングの分野に導入する。
特定のタスクを複数の機能ディメンションに分解し、それぞれにLoRA専門家を個別に微調整する。
我々のモデルは、人間の嗜好との整合性に優れ、先進的な生成アプローチを実現する。
論文 参考訳(メタデータ) (2024-03-02T12:31:22Z) - A SAM-guided Two-stream Lightweight Model for Anomaly Detection [50.28310943263051]
我々は、教師なし異常検出(STLM)のためのSAM誘導2ストリーム軽量モデルを提案する。
MVTec ADベンチマークを用いて行った実験により,約16Mのパラメータを持ち,20msの推論時間を実現したSTLMは,最先端の手法と効果的に競合することが示された。
論文 参考訳(メタデータ) (2024-02-29T13:29:10Z) - Learn From Model Beyond Fine-Tuning: A Survey [78.80920533793595]
Learn From Model (LFM) は、モデルインターフェースに基づいた基礎モデル(FM)の研究、修正、設計に焦点を当てている。
LFM技術の研究は、モデルチューニング、モデル蒸留、モデル再利用、メタラーニング、モデル編集の5つの分野に大別できる。
本稿では, LFM の観点から, FM に基づく現在の手法を概観する。
論文 参考訳(メタデータ) (2023-10-12T10:20:36Z) - Leveraging sparse and shared feature activations for disentangled
representation learning [112.22699167017471]
本稿では,教師付きタスクの多種多様な集合から抽出した知識を活用し,共通不整合表現を学習することを提案する。
我々は6つの実世界分布シフトベンチマークと異なるデータモダリティに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-04-17T01:33:24Z) - Federated Graph Representation Learning using Self-Supervision [18.015793175772835]
フェデレートグラフ表現学習(FedGRL)は、データキュレーションに関連するプライバシーとコンプライアンスの問題に対処しながら、構造化データに分散トレーニングの利点をもたらす。
クロスサイロクライアントは、ラベル付きまたはラベルなしのデータで膨大な量のラベル付きデータにアクセスでき、また、下流クラスラベルドメインも多様である、現実的で斬新な問題設定を考察する。
我々は,自己監督的目標を用いて協調的に最適化された共有グローバルモデルを学習し,ローカルクライアントモデルを通じて下流タスクの監視を行うモデルに基づく新しいFedGRLの定式化を提案する。
論文 参考訳(メタデータ) (2022-10-27T02:13:42Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。