論文の概要: A Novel Technique for Robust Training of Deep Networks With Multisource Weak Labeled Remote Sensing Data
- arxiv url: http://arxiv.org/abs/2510.05760v1
- Date: Tue, 07 Oct 2025 10:25:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.202058
- Title: A Novel Technique for Robust Training of Deep Networks With Multisource Weak Labeled Remote Sensing Data
- Title(参考訳): マルチソース重み付きリモートセンシングデータを用いた深層ネットワークのロバストトレーニング
- Authors: Gianmarco Perantoni, Lorenzo Bruzzone,
- Abstract要約: ディープネットワークは 優れた一般化能力を得るために 大量の訓練サンプルを必要とする
これは、各ソースのエラーの統計を記述する遷移行列を利用する。
提案手法の有効性を,異なるデータセットを用いた実験により検証した。
- 参考スコア(独自算出の注目度): 13.80382608774738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has gained broad interest in remote sensing image scene classification thanks to the effectiveness of deep neural networks in extracting the semantics from complex data. However, deep networks require large amounts of training samples to obtain good generalization capabilities and are sensitive to errors in the training labels. This is a problem in remote sensing since highly reliable labels can be obtained at high costs and in limited amount. However, many sources of less reliable labeled data are available, e.g., obsolete digital maps. In order to train deep networks with larger datasets, we propose both the combination of single or multiple weak sources of labeled data with a small but reliable dataset to generate multisource labeled datasets and a novel training strategy where the reliability of each source is taken in consideration. This is done by exploiting the transition matrices describing the statistics of the errors of each source. The transition matrices are embedded into the labels and used during the training process to weigh each label according to the related source. The proposed method acts as a weighting scheme at gradient level, where each instance contributes with different weights to the optimization of different classes. The effectiveness of the proposed method is validated by experiments on different datasets. The results proved the robustness and capability of leveraging on unreliable source of labels of the proposed method.
- Abstract(参考訳): 深層学習は、複雑なデータから意味を抽出するディープニューラルネットワークの有効性により、リモートセンシング画像シーンの分類に広く関心を集めている。
しかし、ディープネットワークは、優れた一般化能力を得るために大量のトレーニングサンプルを必要とし、トレーニングラベルのエラーに敏感である。
これは、高信頼性ラベルを高コストかつ限られた量で得ることができるため、リモートセンシングにおける問題である。
しかし、信頼性の低いラベル付きデータのソースは、例えば、古いデジタルマップなど、多く利用可能である。
より大規模なデータセットでディープ・ネットワークをトレーニングするために,ラベル付きデータの単一または複数の弱いソースと小さいが信頼性の高いデータセットを組み合わせてマルチソースラベル付きデータセットを生成し,各ソースの信頼性を考慮に入れた新たなトレーニング戦略を提案する。
これは、各ソースのエラーの統計を記述する遷移行列を利用する。
遷移行列はラベルに埋め込まれ、トレーニングプロセス中に、関連するソースに従って各ラベルを計量するために使用される。
提案手法は勾配レベルでの重み付けスキームとして機能し、各インスタンスは異なるクラスの最適化に異なる重みで寄与する。
提案手法の有効性を,異なるデータセットを用いた実験により検証した。
その結果,提案手法の信頼性の低いラベルを活用できることが証明された。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - DiverseNet: Decision Diversified Semi-supervised Semantic Segmentation Networks for Remote Sensing Imagery [17.690698736544626]
半教師付き学習(SSL)は、乱れのないデータのプールを活用することで、手作業によるラベリングプロセスのコスト削減を支援することを目的としている。
既存のSSLフレームワークの多くは、メモリが制限されたGPU上で効率的に動作するには大きすぎる。
擬似ラベルの多様性を高めるために,SSL に対して異なるネットワークを並列に探索・解析する textitDiverseModel を提案する。
論文 参考訳(メタデータ) (2023-11-22T22:20:10Z) - Distribution Shift Matters for Knowledge Distillation with Webly
Collected Images [91.66661969598755]
異なる分布間の知識蒸留という新しい手法を提案する(KD$3$)。
まず,教師ネットワークと学生ネットワークの併用予測に基づいて,Webで収集したデータから有用なトレーニングインスタンスを動的に選択する。
また、MixDistributionと呼ばれる新しいコントラスト学習ブロックを構築して、新しい分散のインスタンスアライメントで摂動データを生成します。
論文 参考訳(メタデータ) (2023-07-21T10:08:58Z) - Exploring Data Redundancy in Real-world Image Classification through
Data Selection [20.389636181891515]
ディープラーニングモデルはトレーニングに大量のデータを必要とすることが多く、結果としてコストが増大する。
実世界の画像データの冗長性を調べるために,シナプスインテリジェンスと勾配ノルムに基づく2つのデータ評価指標を提案する。
オンラインおよびオフラインのデータ選択アルゴリズムは、検査されたデータ値に基づいてクラスタリングとグループ化によって提案される。
論文 参考訳(メタデータ) (2023-06-25T03:31:05Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Deep Transfer Learning for Multi-source Entity Linkage via Domain
Adaptation [63.24594955429465]
マルチソースエンティティリンクは、データのクリーニングやユーザ縫合といった、高インパクトなアプリケーションにおいて重要である。
AdaMELは、多ソースエンティティリンクを実行するための一般的なハイレベルな知識を学ぶディープトランスファー学習フレームワークである。
本フレームワークは,教師付き学習に基づく平均的手法よりも8.21%向上した最先端の学習結果を実現する。
論文 参考訳(メタデータ) (2021-10-27T15:20:41Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z) - Adversarial Knowledge Transfer from Unlabeled Data [62.97253639100014]
本稿では,インターネット規模の未ラベルデータから知識を伝達し,分類器の性能を向上させるための新しいAdversarial Knowledge Transferフレームワークを提案する。
我々の手法の重要な新しい側面は、ラベル付けされていないソースデータは、ラベル付けされたターゲットデータと異なるクラスであることができ、個別のプリテキストタスクを定義する必要がないことである。
論文 参考訳(メタデータ) (2020-08-13T08:04:27Z) - Learning across label confidence distributions using Filtered Transfer
Learning [0.44040106718326594]
本稿では,大きな可変信頼度データセットを持つノイズの多いデータシステムにおいて,予測能力を向上させるための伝達学習手法を提案する。
本稿では、複数の階層のデータ信頼度を個別のタスクとして定義する、FTL(Filted Transfer Learning)と呼ばれるディープニューラルネットワーク手法を提案する。
FTLを用いてラベル信頼度分布を段階的に学習すると、単一の信頼範囲でトレーニングされたディープニューラルネットワークモデルよりも高いパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2020-06-03T21:00:11Z) - GradMix: Multi-source Transfer across Domains and Tasks [33.98368732653684]
GradMixは、勾配に基づく学習規則で訓練されたモデルに適用できるモデルに依存しない手法である。
数値認識と行動認識の2つの課題についてMS-DTT実験を行った。
論文 参考訳(メタデータ) (2020-02-09T02:10:22Z) - Iterative Label Improvement: Robust Training by Confidence Based
Filtering and Dataset Partitioning [5.1293809610257775]
最先端、高容量のディープニューラルネットワークは、大量のラベル付きトレーニングデータを必要とする。
また、このデータにエラーをラベル付けする可能性も高い。
本稿では,安価な非競合データを使用することのできる新しいメタトレーニング・ラベリング手法を提案する。
論文 参考訳(メタデータ) (2020-02-07T10:42:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。