論文の概要: Task Specific Pretraining with Noisy Labels for Remote sensing Image
Segmentation
- arxiv url: http://arxiv.org/abs/2402.16164v1
- Date: Sun, 25 Feb 2024 18:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 15:01:12.631280
- Title: Task Specific Pretraining with Noisy Labels for Remote sensing Image
Segmentation
- Title(参考訳): リモートセンシング画像セグメンテーションのための雑音ラベルを用いたタスク特定事前学習
- Authors: Chenying Liu, Conrad Albrecht, Yi Wang, Xiao Xiang Zhu
- Abstract要約: 本研究は,セグメンテーションタスク特定事前学習のためのノイズラベルの未発見の可能性について検討する。
2つのデータセットの実験は、ノイズラベルを用いたタスク特定教師付き事前学習の有効性を示している。
- 参考スコア(独自算出の注目度): 19.966297395162076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, self-supervision has drawn a lot of attention in remote
sensing society due to its ability to reduce the demand of exact labels in
supervised deep learning model training. Self-supervision methods generally
utilize image-level information to pretrain models in an unsupervised fashion.
Though these pretrained encoders show effectiveness in many downstream tasks,
their performance on segmentation tasks is often not as good as that on
classification tasks. On the other hand, many easily available label sources
(e.g., automatic labeling tools and land cover land use products) exist, which
can provide a large amount of noisy labels for segmentation model training. In
this work, we propose to explore the under-exploited potential of noisy labels
for segmentation task specific pretraining, and exam its robustness when
confronted with mismatched categories and different decoders during
fine-tuning. Specifically, we inspect the impacts of noisy labels on different
layers in supervised model training to serve as the basis of our work.
Experiments on two datasets indicate the effectiveness of task specific
supervised pretraining with noisy labels. The findings are expected to shed
light on new avenues for improving the accuracy and versatility of pretraining
strategies for remote sensing image segmentation.
- Abstract(参考訳): 近年,遠隔センシング社会では,教師付き深層学習モデルのトレーニングにおいて,正確なラベルの需要を削減できることから,自己監督が注目されている。
セルフスーパービジョン法は一般的に、教師なしの方法で事前訓練モデルに画像レベル情報を利用する。
これらの事前訓練されたエンコーダは多くの下流タスクで有効性を示すが、セグメンテーションタスクのパフォーマンスは分類タスクほど良くないことが多い。
一方で、容易に利用可能なラベルソース(自動ラベルツールや土地被覆土地利用製品など)が多数存在し、セグメンテーションモデルのトレーニングに大量のノイズラベルを提供することができる。
本研究では,セグメンテーションタスク特定事前訓練のためのノイズラベルの未発見の可能性を探究し,微調整中に不一致なカテゴリや異なるデコーダに直面する場合の頑健さについて検討する。
具体的には,各レイヤに対するノイズラベルの影響を教師付きモデルトレーニングで検証し,作業の基盤として活用する。
2つのデータセットの実験は、ノイズラベルを用いたタスク特定教師付き事前学習の有効性を示している。
リモートセンシング画像セグメンテーションのための事前学習戦略の精度と汎用性を向上させるため,新たな道筋に光を当てることが期待される。
関連論文リスト
- Terrain-Informed Self-Supervised Learning: Enhancing Building Footprint Extraction from LiDAR Data with Limited Annotations [1.3243401820948064]
フットプリントマップの構築は、広範な後処理なしで正確なフットプリント抽出を約束する。
ディープラーニング手法は、一般化とラベルの効率の面で課題に直面している。
リモートセンシングに適した地形認識型自己教師型学習を提案する。
論文 参考訳(メタデータ) (2023-11-02T12:34:23Z) - Impact of Label Types on Training SWIN Models with Overhead Imagery [0.0]
本研究は,境界ボックスとセグメンテーションラベルを用いたシフト窓変圧器の訓練効果について検討した。
対象画素のみにトレーニングしたモデルでは,分類タスクの性能向上が得られないことがわかった。
オブジェクト検出では、各ラベルタイプでトレーニングされたモデルが、テスト全体で同等のパフォーマンスを示した。
論文 参考訳(メタデータ) (2023-10-11T15:14:54Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - CaSP: Class-agnostic Semi-Supervised Pretraining for Detection and
Segmentation [60.28924281991539]
本稿では,タスク固有性バランスを向上するために,クラス非依存型半教師付き事前学習(CaSP)フレームワークを提案する。
我々は3.6Mの未ラベルデータを用いて、ImageNetで規定されたオブジェクト検出のベースラインよりも4.7%の顕著なパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2021-12-09T14:54:59Z) - Evaluating Self and Semi-Supervised Methods for Remote Sensing
Segmentation Tasks [4.7590051176368915]
我々は、下流タスク性能を改善するためにラベルのないデータを活用する、最近の自己および半教師付きML技術を評価する。
これらの手法は、ラベルなし画像へのアクセスが容易で、真理ラベルの取得が高価である場合が多いため、リモートセンシングタスクには特に有用である。
論文 参考訳(メタデータ) (2021-11-19T07:41:14Z) - Active Learning for Improved Semi-Supervised Semantic Segmentation in
Satellite Images [1.0152838128195467]
半教師付きテクニックは、ラベル付きサンプルの小さなセットから擬似ラベルを生成する。
そこで我々は,ラベル付きトレーニングデータの集合を高度に代表的に選択するために,アクティブな学習に基づくサンプリング戦略を提案する。
我々はmIoUの27%の改善を報告し、2%のラベル付きデータをアクティブラーニングサンプリング戦略を用いて報告した。
論文 参考訳(メタデータ) (2021-10-15T00:29:31Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。