論文の概要: Consecutive Pretraining: A Knowledge Transfer Learning Strategy with
Relevant Unlabeled Data for Remote Sensing Domain
- arxiv url: http://arxiv.org/abs/2207.03860v1
- Date: Fri, 8 Jul 2022 12:32:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 14:06:51.783528
- Title: Consecutive Pretraining: A Knowledge Transfer Learning Strategy with
Relevant Unlabeled Data for Remote Sensing Domain
- Title(参考訳): 逐次事前学習:リモートセンシング領域のための無ラベルデータを用いた知識伝達学習戦略
- Authors: Tong Zhang, Peng Gao, Hao Dong, Yin Zhuang, Guanqun Wang, Wei Zhang,
He Chen
- Abstract要約: 自然言語処理(NLP)における事前学習を停止しないという考え方に基づいて,CSPT(ConSecutive PreTraining)を提案する。
提案したCSPTは、タスク対応モデルトレーニングのためのラベルなしデータの巨大な可能性を公開することもできる。
その結果,提案したCSPTをタスク認識モデルトレーニングに活用することにより,従来の教師付きプレトレーニング-then-fine-tuning法よりもRTDのダウンストリームタスクのほとんどを上回り得ることがわかった。
- 参考スコア(独自算出の注目度): 25.84756140221655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, under supervised learning, a model pretrained by a large-scale
nature scene dataset and then fine-tuned on a few specific task labeling data
is the paradigm that has dominated the knowledge transfer learning. It has
reached the status of consensus solution for task-aware model training in
remote sensing domain (RSD). Unfortunately, due to different categories of
imaging data and stiff challenges of data annotation, there is not a large
enough and uniform remote sensing dataset to support large-scale pretraining in
RSD. Moreover, pretraining models on large-scale nature scene datasets by
supervised learning and then directly fine-tuning on diverse downstream tasks
seems to be a crude method, which is easily affected by inevitable labeling
noise, severe domain gaps and task-aware discrepancies. Thus, in this paper,
considering the self-supervised pretraining and powerful vision transformer
(ViT) architecture, a concise and effective knowledge transfer learning
strategy called ConSecutive PreTraining (CSPT) is proposed based on the idea of
not stopping pretraining in natural language processing (NLP), which can
gradually bridge the domain gap and transfer knowledge from the nature scene
domain to the RSD. The proposed CSPT also can release the huge potential of
unlabeled data for task-aware model training. Finally, extensive experiments
are carried out on twelve datasets in RSD involving three types of downstream
tasks (e.g., scene classification, object detection and land cover
classification) and two types of imaging data (e.g., optical and SAR). The
results show that by utilizing the proposed CSPT for task-aware model training,
almost all downstream tasks in RSD can outperform the previous method of
supervised pretraining-then-fine-tuning and even surpass the state-of-the-art
(SOTA) performance without any expensive labeling consumption and careful model
design.
- Abstract(参考訳): 現在、教師付き学習の下では、大規模自然シーンデータセットによって事前学習され、いくつかの特定のタスクラベリングデータに微調整されたモデルは、知識伝達学習を支配したパラダイムである。
リモートセンシング領域(RSD)におけるタスク認識モデルトレーニングにおけるコンセンサスソリューションの状況に到達した。
残念ながら、画像データのさまざまなカテゴリとデータアノテーションの厳しい課題のため、RSDの大規模事前トレーニングをサポートするのに十分な、かつ均一なリモートセンシングデータセットは存在しない。
さらに、教師付き学習による大規模自然景観データセットの事前学習モデルや、様々な下流タスクを直接微調整することは、避けられないラベリングノイズ、厳しいドメインギャップ、タスク認識の不一致の影響を受けやすい粗末な手法であると考えられる。
そこで本稿では,自然言語処理(nlp)における自己教師付き事前学習と強力な視覚トランスフォーマー(vit)アーキテクチャを考えると,自然言語処理(nature scene domain)のドメイン間ギャップを徐々に橋渡しし,知識をrsdに転送できる,逐次事前学習(sequal pretraining,cspt)と呼ばれる簡潔で効果的な知識伝達学習戦略を提案する。
提案するcsptは、タスク認識モデルトレーニングのためのラベルなしデータの巨大な可能性もリリースできる。
最後に、rsd内の12のデータセットに対して、3種類の下流タスク(シーン分類、オブジェクト検出、土地被覆分類など)と2種類のイメージングデータ(光とsarなど)を含む広範な実験を行った。
その結果,提案するcsptをタスク認識モデルトレーニングに利用することにより,rsdのダウンストリームタスクのほとんどが,前回の教師付き事前学習-then-fine-tuning法を上回ることができ,しかも高価なラベリング消費や注意深いモデル設計を伴わずに最先端(sota)性能を上回ることさえ可能となった。
関連論文リスト
- Data Adaptive Traceback for Vision-Language Foundation Models in Image Classification [34.37262622415682]
我々はData Adaptive Tracebackと呼ばれる新しい適応フレームワークを提案する。
具体的には、ゼロショット法を用いて、事前学習データの最もダウンストリームなタスク関連サブセットを抽出する。
我々は、擬似ラベルに基づく半教師付き手法を採用し、事前学習画像の再利用と、半教師付き学習における確証バイアス問題に対処するための視覚言語コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T18:01:58Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Task-Customized Self-Supervised Pre-training with Scalable Dynamic
Routing [76.78772372631623]
セルフ教師付き事前トレーニングの一般的な実践は、できるだけ多くのデータを使用することである。
しかし、特定のダウンストリームタスクでは、事前トレーニングで無関係なデータを含むと、ダウンストリームのパフォーマンスが低下する可能性がある。
異なるタスクのための事前トレーニングで、異なるダウンストリームタスクにカスタマイズされたデータセットを使用することは、重荷であり、実現不可能である。
論文 参考訳(メタデータ) (2022-05-26T10:49:43Z) - Knowledge Distillation as Efficient Pre-training: Faster Convergence,
Higher Data-efficiency, and Better Transferability [53.27240222619834]
効率的な事前学習としての知識蒸留は、学習した特徴表現を学習済みモデルから将来の下流タスクのための新しい学生モデルに効率的に転送することを目的としている。
提案手法は,3つの下流タスクにおける教師付き事前学習タスクと,10倍少ないデータと5倍少ない事前学習時間を必要とする9つの下流データセットとを比較検討する。
論文 参考訳(メタデータ) (2022-03-10T06:23:41Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。