論文の概要: STRUDEL: Self-Training with Uncertainty Dependent Label Refinement
across Domains
- arxiv url: http://arxiv.org/abs/2104.11596v1
- Date: Fri, 23 Apr 2021 13:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 13:05:08.234930
- Title: STRUDEL: Self-Training with Uncertainty Dependent Label Refinement
across Domains
- Title(参考訳): STRUDEL: ドメイン間の不確実性依存ラベルリファインメントによる自己学習
- Authors: Fabian Gr\"oger, Anne-Marie Rickmann, Christian Wachinger
- Abstract要約: ホワイトマター高輝度(WMH)セグメンテーションのための非監視領域適応(UDA)アプローチを提案する。
疑似ラベルの不確かさを予測し,不確かさの高いラベルを強調する不確実性誘導損失関数をトレーニングプロセスに統合する。
We results on WMH segmentation across datasets showed the significant improvement of STRUDEL on standard self-training。
- 参考スコア(独自算出の注目度): 4.812718493682454
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose an unsupervised domain adaptation (UDA) approach for white matter
hyperintensity (WMH) segmentation, which uses Self-Training with Uncertainty
DEpendent Label refinement (STRUDEL). Self-training has recently been
introduced as a highly effective method for UDA, which is based on
self-generated pseudo labels. However, pseudo labels can be very noisy and
therefore deteriorate model performance. We propose to predict the uncertainty
of pseudo labels and integrate it in the training process with an
uncertainty-guided loss function to highlight labels with high certainty.
STRUDEL is further improved by incorporating the segmentation output of an
existing method in the pseudo label generation that showed high robustness for
WMH segmentation. In our experiments, we evaluate STRUDEL with a standard U-Net
and a modified network with a higher receptive field. Our results on WMH
segmentation across datasets demonstrate the significant improvement of STRUDEL
with respect to standard self-training.
- Abstract(参考訳): 非教師なし領域適応(unsupervised domain adaptation,uda)によるホワイトマター・ハイパーインテンシティ(wmh)セグメンテーションを提案する。
自己学習は, 自己生成型擬似ラベルに基づく, UDA の高効率な手法として紹介されている。
しかし、擬似ラベルは非常にうるさいため、モデル性能が劣化する。
疑似ラベルの不確かさを予測し,不確かさの高いラベルを強調する不確実性誘導損失関数をトレーニングプロセスに統合する。
WMHセグメンテーションの堅牢性を示す擬似ラベル生成に既存の手法のセグメンテーション出力を組み込むことにより、STRUDELをさらに改善する。
実験では,標準のU-Netと高い受容場を持つ改良型ネットワークを用いてSTRUDELを評価した。
We results on WMH segmentation across datasets showed the significant improvement of STRUDEL on standard self-training。
関連論文リスト
- Soften to Defend: Towards Adversarial Robustness via Self-Guided Label Refinement [5.865750284677784]
敵対的訓練(AT)は、敵対的攻撃に対するディープニューラルネットワークの堅牢性を得る最も効果的な方法の1つである。
AT法は頑健なオーバーフィッティング、すなわちトレーニング曲線とテスト曲線の間の大きな一般化ギャップに悩まされている。
本稿では,AT のラベルリファインメント手法を提案する。この手法は,高信頼のハードラベルから,より正確かつ情報的なラベル分布を自己定義する。
論文 参考訳(メタデータ) (2024-03-14T04:48:31Z) - Unsupervised Domain Adaptation for Semantic Segmentation with Pseudo
Label Self-Refinement [9.69089112870202]
擬似ラベルのオンライン精錬のための補助的擬似ラベル精錬ネットワーク(PRN)を提案する。
3つの異なるドメインシフトを持つベンチマークデータセットに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2023-10-25T20:31:07Z) - Uncertainty-aware Self-training for Low-resource Neural Sequence
Labeling [29.744621356187764]
本稿では,ニューラルシークエンスラベリング(NSL)のための新しい未知の自己学習フレームワークSeqUSTを提案する。
ベイジアンニューラルネットワーク(BNN)にモンテカルロ(MC)ドロップアウトを組み込んでトークンレベルで不確実性評価を行い、ラベルのないデータから信頼性の高い言語トークンを選択する。
ノイズロスのあるマスク付きシークエンスラベリングタスクは、ノイズのある擬似ラベルの問題を抑えることを目的とした堅牢なトレーニングを支援する。
論文 参考訳(メタデータ) (2023-02-17T02:40:04Z) - Hard-aware Instance Adaptive Self-training for Unsupervised Cross-domain
Semantic Segmentation [18.807921765977415]
セマンティックセグメンテーションの課題に対して,UDAのための適応型自己学習フレームワークを提案する。
我々は,インスタンス適応セレクタを用いた新しい擬似ラベル生成戦略を開発した。
GTA5からCityscapesへ、SynTHIAからCityscapesへ、そしてCityscapesからOxford RobotCarへの実験は、我々のアプローチの優れた性能を実証した。
論文 参考訳(メタデータ) (2023-02-14T11:52:26Z) - Exploiting Completeness and Uncertainty of Pseudo Labels for Weakly
Supervised Video Anomaly Detection [149.23913018423022]
弱教師付きビデオ異常検出は、ビデオレベルのラベルのみを用いて、ビデオ内の異常事象を特定することを目的としている。
2段階の自己学習法は擬似ラベルの自己生成によって著しく改善されている。
本稿では,自己学習のための完全性と不確実性を利用した強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T05:53:53Z) - Constraining Pseudo-label in Self-training Unsupervised Domain
Adaptation with Energy-based Model [26.074500538428364]
ラベル付きソースドメインの知識をラベル付きターゲットドメインに導入するために、unsupervised domain adaptation (UDA) が開発されている。
近年、深層自己学習は、ターゲットドメインを予測する反復的なプロセスを含む、UDAにとって強力な手段となる。
我々はエネルギーベースモデルを採用し,エネルギー関数最小化の目標とする未ラベル対象試料の訓練を制約する。
論文 参考訳(メタデータ) (2022-08-26T22:50:23Z) - Unsupervised Domain Adaptive Salient Object Detection Through
Uncertainty-Aware Pseudo-Label Learning [104.00026716576546]
そこで本研究では,手動のアノテーションを使わずに,自然に高いピクセルラベル品質を有する合成・クリーンなラベルから,サリエンスを学習することを提案する。
提案手法は,複数のベンチマークデータセット上で,既存の最先端の深層教師なしSOD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-26T16:03:55Z) - Cycle Self-Training for Domain Adaptation [85.14659717421533]
Cycle Self-Training (CST) は、ドメイン間の一般化に擬似ラベルを強制する、原則付き自己学習アルゴリズムである。
CSTは目標の真理を回復し、不変の機能学習とバニラ自己訓練の両方が失敗する。
実験結果から,標準的なUDAベンチマークでは,CSTは先行技術よりも大幅に改善されていることが示唆された。
論文 参考訳(メタデータ) (2021-03-05T10:04:25Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Two-phase Pseudo Label Densification for Self-training based Domain
Adaptation [93.03265290594278]
TPLDと呼ばれる,新規な二相擬似ラベル高密度化フレームワークを提案する。
第1フェーズでは,スライディングウインドウ投票を用いて,画像内の内在的空間相関を利用して,自信のある予測を広める。
第2フェーズでは,信頼度に基づく容易な分類を行う。
トレーニングプロセスの容易化と騒音予測の回避を目的として,ブートストラップ機構の導入を行った。
論文 参考訳(メタデータ) (2020-12-09T02:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。