論文の概要: Task Specific Pretraining with Noisy Labels for Remote sensing Image
Segmentation
- arxiv url: http://arxiv.org/abs/2402.16164v1
- Date: Sun, 25 Feb 2024 18:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 15:01:12.631280
- Title: Task Specific Pretraining with Noisy Labels for Remote sensing Image
Segmentation
- Title(参考訳): リモートセンシング画像セグメンテーションのための雑音ラベルを用いたタスク特定事前学習
- Authors: Chenying Liu, Conrad Albrecht, Yi Wang, Xiao Xiang Zhu
- Abstract要約: 本研究は,セグメンテーションタスク特定事前学習のためのノイズラベルの未発見の可能性について検討する。
2つのデータセットの実験は、ノイズラベルを用いたタスク特定教師付き事前学習の有効性を示している。
- 参考スコア(独自算出の注目度): 19.966297395162076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, self-supervision has drawn a lot of attention in remote
sensing society due to its ability to reduce the demand of exact labels in
supervised deep learning model training. Self-supervision methods generally
utilize image-level information to pretrain models in an unsupervised fashion.
Though these pretrained encoders show effectiveness in many downstream tasks,
their performance on segmentation tasks is often not as good as that on
classification tasks. On the other hand, many easily available label sources
(e.g., automatic labeling tools and land cover land use products) exist, which
can provide a large amount of noisy labels for segmentation model training. In
this work, we propose to explore the under-exploited potential of noisy labels
for segmentation task specific pretraining, and exam its robustness when
confronted with mismatched categories and different decoders during
fine-tuning. Specifically, we inspect the impacts of noisy labels on different
layers in supervised model training to serve as the basis of our work.
Experiments on two datasets indicate the effectiveness of task specific
supervised pretraining with noisy labels. The findings are expected to shed
light on new avenues for improving the accuracy and versatility of pretraining
strategies for remote sensing image segmentation.
- Abstract(参考訳): 近年,遠隔センシング社会では,教師付き深層学習モデルのトレーニングにおいて,正確なラベルの需要を削減できることから,自己監督が注目されている。
セルフスーパービジョン法は一般的に、教師なしの方法で事前訓練モデルに画像レベル情報を利用する。
これらの事前訓練されたエンコーダは多くの下流タスクで有効性を示すが、セグメンテーションタスクのパフォーマンスは分類タスクほど良くないことが多い。
一方で、容易に利用可能なラベルソース(自動ラベルツールや土地被覆土地利用製品など)が多数存在し、セグメンテーションモデルのトレーニングに大量のノイズラベルを提供することができる。
本研究では,セグメンテーションタスク特定事前訓練のためのノイズラベルの未発見の可能性を探究し,微調整中に不一致なカテゴリや異なるデコーダに直面する場合の頑健さについて検討する。
具体的には,各レイヤに対するノイズラベルの影響を教師付きモデルトレーニングで検証し,作業の基盤として活用する。
2つのデータセットの実験は、ノイズラベルを用いたタスク特定教師付き事前学習の有効性を示している。
リモートセンシング画像セグメンテーションのための事前学習戦略の精度と汎用性を向上させるため,新たな道筋に光を当てることが期待される。
関連論文リスト
- Deep Active Learning in the Presence of Label Noise: A Survey [1.8945921149936182]
ディープラーニングは、事前に定義されたラベル付け予算内でディープラーニングモデルをトレーニングするための強力なツールとして登場した。
ラベルノイズの存在下での深いアクティブな学習の現状について論じ,ユニークなアプローチ,その強み,弱点を強調した。
本稿では,良質な画像表現を導出するコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T00:27:39Z) - Active Self-Training for Weakly Supervised 3D Scene Semantic
Segmentation [17.27850877649498]
本稿では,自己学習と能動的学習を組み合わせた3次元シーンの弱教師付きセグメンテーション手法を提案する。
提案手法は,従来の作業やベースラインよりもシーンセグメンテーションを改善する効果的な手法であることを示す。
論文 参考訳(メタデータ) (2022-09-15T06:00:25Z) - CaSP: Class-agnostic Semi-Supervised Pretraining for Detection and
Segmentation [60.28924281991539]
本稿では,タスク固有性バランスを向上するために,クラス非依存型半教師付き事前学習(CaSP)フレームワークを提案する。
我々は3.6Mの未ラベルデータを用いて、ImageNetで規定されたオブジェクト検出のベースラインよりも4.7%の顕著なパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2021-12-09T14:54:59Z) - Self-supervised Pretraining with Classification Labels for Temporal
Activity Detection [54.366236719520565]
時間的アクティビティ検出は、1フレーム当たりのアクティビティクラスを予測することを目的としている。
検出に必要なフレームレベルのアノテーションが高価なため、検出データセットの規模は限られている。
本研究では,分類ラベルを利用した自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T18:59:28Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Naive-Student: Leveraging Semi-Supervised Learning in Video Sequences
for Urban Scene Segmentation [57.68890534164427]
本研究では,未ラベル映像シーケンスと追加画像の半教師付き学習を利用して,都市景観セグメンテーションの性能を向上させることができるかどうかを問う。
我々は単にラベルのないデータに対して擬似ラベルを予測し、人間の注釈付きデータと擬似ラベル付きデータの両方でその後のモデルを訓練する。
我々のNaive-Studentモデルは、このような単純で効果的な反復的半教師付き学習で訓練され、3つのCityscapesベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2020-05-20T18:00:05Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。