論文の概要: SILT: Shadow-aware Iterative Label Tuning for Learning to Detect Shadows
from Noisy Labels
- arxiv url: http://arxiv.org/abs/2308.12064v1
- Date: Wed, 23 Aug 2023 11:16:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:28:19.454779
- Title: SILT: Shadow-aware Iterative Label Tuning for Learning to Detect Shadows
from Noisy Labels
- Title(参考訳): SILT:ノイズラベルからのシャドウ検出学習のためのシャドウ認識反復ラベルチューニング
- Authors: Han Yang, Tianyu Wang, Xiaowei Hu and Chi-Wing Fu
- Abstract要約: 本稿では,シャドウラベルのノイズを明示的に考慮し,自己学習で深層モデルを訓練する,シャドウ対応反復ラベルチューニングフレームワークSILTを提案する。
また,グローバルな局所融合とシャドウ・アウェア・フィルタリングを併用した簡易かつ効果的なラベルチューニング戦略を考案し,ノイズラベルの大幅な改善を図った。
その結果,SILTで訓練した単純なU-Netでさえ,最先端の手法を大きなマージンで上回ることができることがわかった。
- 参考スコア(独自算出の注目度): 53.30604926018168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing shadow detection datasets often contain missing or mislabeled
shadows, which can hinder the performance of deep learning models trained
directly on such data. To address this issue, we propose SILT, the Shadow-aware
Iterative Label Tuning framework, which explicitly considers noise in shadow
labels and trains the deep model in a self-training manner. Specifically, we
incorporate strong data augmentations with shadow counterfeiting to help the
network better recognize non-shadow regions and alleviate overfitting. We also
devise a simple yet effective label tuning strategy with global-local fusion
and shadow-aware filtering to encourage the network to make significant
refinements on the noisy labels. We evaluate the performance of SILT by
relabeling the test set of the SBU dataset and conducting various experiments.
Our results show that even a simple U-Net trained with SILT can outperform all
state-of-the-art methods by a large margin. When trained on SBU / UCF / ISTD,
our network can successfully reduce the Balanced Error Rate by 25.2% / 36.9% /
21.3% over the best state-of-the-art method.
- Abstract(参考訳): 既存のシャドウ検出データセットには、しばしば欠落またはラベルのつかないシャドウが含まれているため、そのようなデータで直接トレーニングされたディープラーニングモデルのパフォーマンスを妨げる可能性がある。
そこで我々は,シャドウラベルのノイズを明示的に考慮し,深層モデルを自己学習的に訓練する,シャドウ対応反復ラベルチューニングフレームワークSILTを提案する。
具体的には、強いデータ拡張と影の偽造を組み込んで、ネットワークが影でない領域をよりよく認識し、過剰なフィッティングを緩和するのに役立つ。
また,グローバルな局所融合とシャドウ・アウェア・フィルタリングを併用した簡易かつ効果的なラベルチューニング戦略を考案し,ノイズラベルの大幅な改善を図った。
SBUデータセットのテストセットを緩和し,様々な実験を行うことでSILTの性能を評価する。
その結果,SILTで訓練した単純なU-Netでさえ,最先端の手法を大きなマージンで上回ることができることがわかった。
SBU / UCF / ISTDでトレーニングすると、我々のネットワークは最先端の手法よりも25.2% / 36.9% / 21.3%のバランスエラー率を達成できる。
関連論文リスト
- ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Progressive Recurrent Network for Shadow Removal [99.1928825224358]
シングルイメージのシャドー削除は、まだ解決されていない重要なタスクである。
既存のディープラーニングベースのアプローチのほとんどは、シャドウを直接削除しようとするが、シャドウをうまく扱えない。
本稿では,影を段階的に除去する簡易かつ効果的なプログレッシブ・リカレント・ネットワーク(PRNet)を提案する。
論文 参考訳(メタデータ) (2023-11-01T11:42:45Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - Can semi-supervised learning reduce the amount of manual labelling
required for effective radio galaxy morphology classification? [0.0]
SSLが、ラベル付きデータポイントの数が少ない場合に、現在の監督状態に匹敵するパフォーマンスを達成できるかどうかをテストする。
SSLはさらなるレギュラー化を提供するが、非常に少ないラベルを使用すると性能が急速に低下する。
論文 参考訳(メタデータ) (2021-11-08T09:36:48Z) - R2D: Learning Shadow Removal to Enhance Fine-Context Shadow Detection [64.10636296274168]
現在のシャドウ検出方法は、小さく、不明瞭で、ぼやけたエッジを持つシャドウ領域を検出する際には、性能が良くない。
本稿では,深層ニューラルネットワークを修復訓練(シャドウ除去)するRestore to Detect(R2D)という新しい手法を提案する。
提案手法は,近年の手法に比べて微妙なコンテキストの検出が可能でありながら,影検出性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-20T15:09:22Z) - Co-Seg: An Image Segmentation Framework Against Label Corruption [8.219887855003648]
改良されたディープラーニングのパフォーマンスは、トレーニングのための高品質なラベルの可用性に強く結びついている。
我々は,低品質なノイズラベルを含むデータセット上でセグメンテーションネットワークを協調的に学習する新しいフレームワーク,Co-Segを提案する。
我々のフレームワークはどんなセグメンテーションアルゴリズムでも容易に実装でき、ノイズの多いラベルへのロバスト性を高めることができる。
論文 参考訳(メタデータ) (2021-01-31T20:01:40Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。