論文の概要: ESL: Entropy-guided Self-supervised Learning for Domain Adaptation in
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2006.08658v1
- Date: Mon, 15 Jun 2020 18:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 04:35:53.585627
- Title: ESL: Entropy-guided Self-supervised Learning for Domain Adaptation in
Semantic Segmentation
- Title(参考訳): ESL: セマンティックセグメンテーションにおける領域適応のためのエントロピー誘導型自己教師型学習
- Authors: Antoine Saporta, Tuan-Hung Vu, Matthieu Cord, Patrick P\'erez
- Abstract要約: より正確な擬似ラベルを生成するための信頼性指標としてエントロピーを利用したエントロピー誘導型自己教師学習を提案する。
異なるUDAベンチマークでは、ESLは強いSSLベースラインを一貫して上回り、最先端の結果を得る。
- 参考スコア(独自算出の注目度): 35.03150829133562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While fully-supervised deep learning yields good models for urban scene
semantic segmentation, these models struggle to generalize to new environments
with different lighting or weather conditions for instance. In addition,
producing the extensive pixel-level annotations that the task requires comes at
a great cost. Unsupervised domain adaptation (UDA) is one approach that tries
to address these issues in order to make such systems more scalable. In
particular, self-supervised learning (SSL) has recently become an effective
strategy for UDA in semantic segmentation. At the core of such methods lies
`pseudo-labeling', that is, the practice of assigning high-confident class
predictions as pseudo-labels, subsequently used as true labels, for target
data. To collect pseudo-labels, previous works often rely on the highest
softmax score, which we here argue as an unfavorable confidence measurement.
In this work, we propose Entropy-guided Self-supervised Learning (ESL),
leveraging entropy as the confidence indicator for producing more accurate
pseudo-labels. On different UDA benchmarks, ESL consistently outperforms strong
SSL baselines and achieves state-of-the-art results.
- Abstract(参考訳): 完全教師付きディープラーニングは、都市シーンセマンティックセグメンテーションのための良いモデルをもたらすが、これらのモデルは、例えば異なる照明や天候条件を持つ新しい環境への一般化に苦慮している。
さらに、タスクが必要とする広範なピクセルレベルのアノテーションを生成することは、非常にコストがかかる。
非教師なしドメイン適応(UDA)は、そのようなシステムをよりスケーラブルにするためにこれらの問題に対処しようとするアプローチである。
特に, 自己教師付き学習(SSL)は, セマンティックセグメンテーションにおいて, UDAの効果的な戦略となっている。
このような手法の中核は 'pseudo-labeling' であり、すなわち、高信頼のクラス予測を擬似ラベルとして割り当てるプラクティスであり、後に真のラベルとしてターゲットデータに使用される。
擬似ラベルを収集するために、以前の作品はしばしば最高ソフトマックススコアに依存しており、これは好ましくない信頼度測定であると主張する。
本研究では,より正確な擬似ラベルを生成するために,エントロピーを信頼度指標として活用する,エントロピー誘導型自己教師学習(ESL)を提案する。
異なるUDAベンチマークでは、ESLは強いSSLベースラインを一貫して上回り、最先端の結果を得る。
関連論文リスト
- Pseudo-label Refinement for Improving Self-Supervised Learning Systems [22.276126184466207]
自己教師付き学習システムは、人間のアノテーションを必要とせずに、クラスタリングベースの擬似ラベルを使用して監督する。
クラスタリング手法によって生じるこれらの擬似ラベルのノイズは、学習プロセスに難題となり、性能が劣化する。
本稿では,この問題に対処する擬似ラベル改良アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-18T07:47:59Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Semi-Supervised Class-Agnostic Motion Prediction with Pseudo Label
Regeneration and BEVMix [59.55173022987071]
クラス非依存動作予測のための半教師あり学習の可能性について検討する。
我々のフレームワークは一貫性に基づく自己学習パラダイムを採用しており、ラベルのないデータからモデルを学習することができる。
本手法は,弱さと完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-12-13T09:32:50Z) - Unsupervised Domain Adaptation for Semantic Segmentation with Pseudo
Label Self-Refinement [9.69089112870202]
擬似ラベルのオンライン精錬のための補助的擬似ラベル精錬ネットワーク(PRN)を提案する。
3つの異なるドメインシフトを持つベンチマークデータセットに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2023-10-25T20:31:07Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Constraining Pseudo-label in Self-training Unsupervised Domain
Adaptation with Energy-based Model [26.074500538428364]
ラベル付きソースドメインの知識をラベル付きターゲットドメインに導入するために、unsupervised domain adaptation (UDA) が開発されている。
近年、深層自己学習は、ターゲットドメインを予測する反復的なプロセスを含む、UDAにとって強力な手段となる。
我々はエネルギーベースモデルを採用し,エネルギー関数最小化の目標とする未ラベル対象試料の訓練を制約する。
論文 参考訳(メタデータ) (2022-08-26T22:50:23Z) - Complementing Semi-Supervised Learning with Uncertainty Quantification [6.612035830987296]
そこで本研究では,アレータ性およびてんかん性不確実性定量化に依存する,教師なし不確実性認識の新たな目的を提案する。
CIFAR-100やMini-ImageNetのような複雑なデータセットでは,結果が最先端の成果よりも優れています。
論文 参考訳(メタデータ) (2022-07-22T00:15:02Z) - Unsupervised Domain Adaptive Salient Object Detection Through
Uncertainty-Aware Pseudo-Label Learning [104.00026716576546]
そこで本研究では,手動のアノテーションを使わずに,自然に高いピクセルラベル品質を有する合成・クリーンなラベルから,サリエンスを学習することを提案する。
提案手法は,複数のベンチマークデータセット上で,既存の最先端の深層教師なしSOD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-26T16:03:55Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。