論文の概要: Training general representations for remote sensing using in-domain
knowledge
- arxiv url: http://arxiv.org/abs/2010.00332v1
- Date: Wed, 30 Sep 2020 15:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 23:01:54.598663
- Title: Training general representations for remote sensing using in-domain
knowledge
- Title(参考訳): ドメイン内知識を用いたリモートセンシングのための一般的な訓練
- Authors: Maxim Neumann, Andr\'e Susano Pinto, Xiaohua Zhai, and Neil Houlsby
- Abstract要約: 本稿では,一般的なリモートセンシング表現の開発について検討する。
データセットが表現学習の優れた情報源となるために、どのような特性が重要であるかを探る。
- 参考スコア(独自算出の注目度): 23.741188128379893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatically finding good and general remote sensing representations allows
to perform transfer learning on a wide range of applications - improving the
accuracy and reducing the required number of training samples. This paper
investigates development of generic remote sensing representations, and
explores which characteristics are important for a dataset to be a good source
for representation learning. For this analysis, five diverse remote sensing
datasets are selected and used for both, disjoint upstream representation
learning and downstream model training and evaluation. A common evaluation
protocol is used to establish baselines for these datasets that achieve
state-of-the-art performance. As the results indicate, especially with a low
number of available training samples a significant performance enhancement can
be observed when including additionally in-domain data in comparison to
training models from scratch or fine-tuning only on ImageNet (up to 11% and
40%, respectively, at 100 training samples). All datasets and pretrained
representation models are published online.
- Abstract(参考訳): 良質で一般的なリモートセンシング表現を自動的に見つければ、幅広いアプリケーションで転送学習が可能になり、精度が向上し、必要なトレーニングサンプル数が削減される。
本稿では,汎用的なリモートセンシング表現の開発について検討し,データセットが表現学習に適した情報源となるための特徴について検討する。
この分析には,上流表現学習と下流モデルの学習と評価という5つの多様なリモートセンシングデータセットが選択され,その両方に使用される。
共通評価プロトコルは、最先端のパフォーマンスを実現するこれらのデータセットのベースラインを確立するために使用される。
結果が示すように、特に利用可能なトレーニングサンプルの数が少ない場合には、ImageNet上でのスクラッチモデルや微調整モデル(100のトレーニングサンプルでそれぞれ11%と40%)と比較して、ドメイン内の追加データを含むと、パフォーマンスが大幅に向上する。
すべてのデータセットと事前訓練された表現モデルはオンラインで公開されている。
関連論文リスト
- No "Zero-Shot" Without Exponential Data: Pretraining Concept Frequency Determines Multimodal Model Performance [68.18779562801762]
マルチモーダルモデルは、下流の"ゼロショット"のパフォーマンスを線形改善するために、指数関数的に多くのデータを必要とする。
本研究は,大規模な訓練パラダイムの下での「ゼロショット」一般化能力の鍵となる訓練データに対する指数関数的要求を明らかにする。
論文 参考訳(メタデータ) (2024-04-04T17:58:02Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Self-Supervised In-Domain Representation Learning for Remote Sensing
Image Scene Classification [1.0152838128195465]
ImageNetのトレーニング済み重量を様々なリモートセンシングタスクに転送すると、許容できる結果が得られる。
近年の研究では、自己教師あり学習手法が、より差別的で伝達しやすい視覚的特徴を捉えていることが示されている。
我々はこれらの事実に動機付けられ、対照的な自己教師付き学習を用いて、リモートセンシング画像のドメイン内表現を事前訓練する。
論文 参考訳(メタデータ) (2023-02-03T15:03:07Z) - Forgetful Active Learning with Switch Events: Efficient Sampling for
Out-of-Distribution Data [13.800680101300756]
実際には、完全に訓練されたニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)入力とランダムに相互作用する。
本稿では,スイッチイベント(FALSE)による忘れがちなアクティブラーニングについて紹介する。
270以上の実験で最大4.5%の精度向上が報告された。
論文 参考訳(メタデータ) (2023-01-12T16:03:14Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Multi-Domain Joint Training for Person Re-Identification [51.73921349603597]
ReID(Deep Learning-based person Re-IDentification)は、優れたパフォーマンスを達成するために、大量のトレーニングデータを必要とすることが多い。
多様な環境からより多くのトレーニングデータを集めることで、ReIDのパフォーマンスが向上する傾向にある。
本稿では,パラメータを様々な要因に適応させることができる,Domain-Camera-Sample Dynamic Network (DCSD) というアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-06T09:20:59Z) - Self-supervised Audiovisual Representation Learning for Remote Sensing Data [96.23611272637943]
遠隔センシングにおける深層ニューラルネットワークの事前学習のための自己教師型アプローチを提案する。
ジオタグ付きオーディオ記録とリモートセンシングの対応を利用して、これは完全にラベルなしの方法で行われる。
提案手法は,既存のリモートセンシング画像の事前学習方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-02T07:50:50Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - The Utility of Feature Reuse: Transfer Learning in Data-Starved Regimes [6.419457653976053]
データ・スターベド・レシエーションを持つドメインに対する転送学習のユースケースについて述べる。
畳み込み特徴抽出と微調整の有効性を評価する。
我々はトランスファーラーニングがCNNアーキテクチャの性能を向上させることを結論付けている。
論文 参考訳(メタデータ) (2020-02-29T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。