論文の概要: Iterative Loop Learning Combining Self-Training and Active Learning for
Domain Adaptive Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2301.13361v1
- Date: Tue, 31 Jan 2023 01:31:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 18:01:13.674233
- Title: Iterative Loop Learning Combining Self-Training and Active Learning for
Domain Adaptive Semantic Segmentation
- Title(参考訳): ドメイン適応意味セグメンテーションのための自己学習とアクティブ学習を組み合わせた反復ループ学習
- Authors: Licong Guan, Xue Yuan
- Abstract要約: この問題を緩和するために、自己学習とアクティブラーニングが提案されている。
本稿では,自己学習とアクティブラーニングを組み合わせた反復ループ学習手法を提案する。
- 参考スコア(独自算出の注目度): 1.827510863075184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, self-training and active learning have been proposed to alleviate
this problem. Self-training can improve model accuracy with massive unlabeled
data, but some pseudo labels containing noise would be generated with limited
or imbalanced training data. And there will be suboptimal models if human
guidance is absent. Active learning can select more effective data to
intervene, while the model accuracy can not be improved because the massive
unlabeled data are not used. And the probability of querying sub-optimal
samples will increase when the domain difference is too large, increasing
annotation cost. This paper proposes an iterative loop learning method
combining Self-Training and Active Learning (STAL) for domain adaptive semantic
segmentation. The method first uses self-training to learn massive unlabeled
data to improve model accuracy and provide more accurate selection models for
active learning. Secondly, combined with the sample selection strategy of
active learning, manual intervention is used to correct the self-training
learning. Iterative loop to achieve the best performance with minimal label
cost. Extensive experiments show that our method establishes state-of-the-art
performance on tasks of GTAV to Cityscapes, SYNTHIA to Cityscapes, improving by
4.9% mIoU and 5.2% mIoU, compared to the previous best method, respectively.
Code will be available.
- Abstract(参考訳): 近年,この問題を軽減するために,自己学習とアクティブラーニングが提案されている。
自己学習は、膨大なラベル付きデータでモデルの精度を向上させることができるが、ノイズを含む擬似ラベルは、限られたまたは不均衡なトレーニングデータで生成される。
人間の指導がなければ、最適以下のモデルも存在します。
アクティブラーニングは介入すべきより効果的なデータを選択できるが、大量のラベルのないデータが使われないため、モデルの精度は向上しない。
そして、ドメイン差が大きいとサブ最適サンプルをクエリする確率が増加し、アノテーションのコストが増加する。
本稿では,ドメイン適応型セマンティックセグメンテーションのための自己学習とアクティブラーニングを組み合わせた反復ループ学習手法を提案する。
この方法は、まず自己学習を使って大量のラベルのないデータを学習し、モデルの精度を高め、アクティブラーニングのためのより正確な選択モデルを提供する。
第二に、アクティブラーニングのサンプル選択戦略と組み合わせることで、自己学習の修正に手作業による介入が用いられる。
最小限のラベルコストで最高のパフォーマンスを達成するための反復ループ。
その結果, GTAV から Cityscapes , SynTHIA から Cityscapes へのタスクに対して, 従来手法と比較して4.9% mIoU と 5.2% mIoU の改善が得られた。
コードは利用可能だ。
関連論文リスト
- Self-Training for Sample-Efficient Active Learning for Text Classification with Pre-Trained Language Models [3.546617486894182]
我々は,4つのテキスト分類ベンチマークで評価した,新しい効果的な自己学習戦略であるHASTを紹介する。
その結果、4つのデータセットのうち3つに対して、再現された自己学習手法よりも優れており、以前の実験に匹敵する分類結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-06-13T15:06:11Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Zero-shot Active Learning Using Self Supervised Learning [11.28415437676582]
我々は,反復的なプロセスを必要としないモデル非依存の新たなアクティブラーニング手法を提案する。
アクティブラーニングの課題に自己指導型学習機能を活用することを目的としている。
論文 参考訳(メタデータ) (2024-01-03T11:49:07Z) - Efficient Grammatical Error Correction Via Multi-Task Training and
Optimized Training Schedule [55.08778142798106]
原文と修正文のアライメントを利用する補助タスクを提案する。
我々は,各タスクをシーケンス・ツー・シーケンス問題として定式化し,マルチタスク・トレーニングを行う。
トレーニングに使用されるデータセットの順序や、データセット内の個々のインスタンスでさえ、最終的なパフォーマンスに重要な影響を与える可能性があることが分かりました。
論文 参考訳(メタデータ) (2023-11-20T14:50:12Z) - BaSAL: Size-Balanced Warm Start Active Learning for LiDAR Semantic
Segmentation [2.9290232815049926]
既存のアクティブな学習方法は、LiDARセマンティックセグメンテーションデータセットに固有の深刻なクラス不均衡を見落としている。
本研究では,各オブジェクトクラスが特徴的サイズであることを示す観測結果に基づいて,サイズバランスの取れたウォームスタートアクティブラーニングモデルBaSALを提案する。
その結果,初期モデルの性能を大きなマージンで改善できることが示唆された。
論文 参考訳(メタデータ) (2023-10-12T05:03:19Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Active Learning with Combinatorial Coverage [0.0]
アクティブな学習は、ラベル付けするデータを選択するプロセスを自動化する機械学習の実践的な分野である。
現在の手法はデータラベリングの負担を軽減するのに有効であるが、モデルに強く依存する。
これにより、サンプルデータの新しいモデルへの転送が不可能になり、サンプリングバイアスの問題も発生した。
本稿では,これらの課題を克服するために,カバレッジを活用した能動的学習手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T13:43:23Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Minority Class Oriented Active Learning for Imbalanced Datasets [6.009262446889319]
本研究では,不均衡なデータセットを対象とした新しいアクティブ学習手法を提案する。
これは、ラベル付きサブセットの不均衡を減らすために、マイノリティクラスにある可能性が高いサンプルを好む。
また、アクティブラーニングのための2つのトレーニングスキームを比較した。
論文 参考訳(メタデータ) (2022-02-01T13:13:41Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。