論文の概要: The GIST and RIST of Iterative Self-Training for Semi-Supervised
Segmentation
- arxiv url: http://arxiv.org/abs/2103.17105v1
- Date: Wed, 31 Mar 2021 14:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:30:58.341873
- Title: The GIST and RIST of Iterative Self-Training for Semi-Supervised
Segmentation
- Title(参考訳): セミスーパービジョンセグメンテーションにおける反復自己訓練のGISTとRIST
- Authors: Eu Wern Teh, Terrance DeVries, Brendan Duke, Ruowei Jiang, Parham
Aarabi, Graham W. Taylor
- Abstract要約: 我々は,複数段階にわたる自己訓練の行動を探索する反復的自己訓練手法に着目する。
自己学習の反復は,人間ラベルと疑似ラベルのトレーニング例の一定割合でネイティブに実施すれば,パフォーマンスが低下することを示した。
本稿では,人間ラベルデータと疑似ラベルデータのいずれかのトレーニングとを交互に交互に行う,無作為反復自己学習(gist)とランダム反復自己学習(rist)戦略を提案する。
- 参考スコア(独自算出の注目度): 25.43374417092777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the task of semi-supervised semantic segmentation, where we aim
to produce pixel-wise semantic object masks given only a small number of
human-labeled training examples. We focus on iterative self-training methods in
which we explore the behavior of self-training over multiple refinement stages.
We show that iterative self-training leads to performance degradation if done
naively with a fixed ratio of human-labeled to pseudo-labeled training
examples. We propose Greedy Iterative Self-Training (GIST) and Random Iterative
Self-Training (RIST) strategies that alternate between training on either
human-labeled data or pseudo-labeled data at each refinement stage, resulting
in a performance boost rather than degradation. We further show that GIST and
RIST can be combined with existing SOTA methods to boost performance, yielding
new SOTA results in Pascal VOC 2012 and Cityscapes dataset across five out of
six subsets.
- Abstract(参考訳): 半教師付きセマンティックセマンティックセグメンテーションの課題を考察し、少数の人手によるトレーニング例を考慮し、画素単位のセマンティックオブジェクトマスクを作成することを目的とする。
我々は,複数段階にわたる自己訓練の行動を探索する反復的自己訓練手法に着目する。
自己学習の反復は,人間ラベルと疑似ラベルのトレーニング例の一定割合でネイティブに実施すれば,パフォーマンスが低下することを示した。
本稿では,人間ラベルデータと疑似ラベルデータのいずれかのトレーニングとを交互に交互に行う,無作為反復自己学習(gist)とランダム反復自己学習(rist)戦略を提案する。
さらに, GIST と RIST が既存の SOTA 手法と組み合わせて性能向上を図り, Pascal VOC 2012 と Cityscapes の 5 つのサブセットで新たな SOTA 結果が得られることを示す。
関連論文リスト
- Automated Label Unification for Multi-Dataset Semantic Segmentation with GNNs [48.406728896785296]
本稿では,グラフニューラルネットワークを用いて,複数のデータセットにまたがる統一ラベル空間を自動構築する手法を提案する。
従来の手法と異なり,本手法は手動の注釈や分類の調整を必要とせず,シームレスな訓練を容易にする。
論文 参考訳(メタデータ) (2024-07-15T08:42:10Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Efficient Grammatical Error Correction Via Multi-Task Training and
Optimized Training Schedule [55.08778142798106]
原文と修正文のアライメントを利用する補助タスクを提案する。
我々は,各タスクをシーケンス・ツー・シーケンス問題として定式化し,マルチタスク・トレーニングを行う。
トレーニングに使用されるデータセットの順序や、データセット内の個々のインスタンスでさえ、最終的なパフォーマンスに重要な影響を与える可能性があることが分かりました。
論文 参考訳(メタデータ) (2023-11-20T14:50:12Z) - WC-SBERT: Zero-Shot Text Classification via SBERT with Self-Training for
Wikipedia Categories [5.652290685410878]
本研究は,NLPにおけるゼロショットテキスト分類問題の解決に重点を置いている。
本稿では,テキストではなくラベルを用いた新たな自己学習戦略を提案する。
提案手法は,Yahoo Topic と AG News の双方のデータセットに対して,最先端の結果を得られる。
論文 参考訳(メタデータ) (2023-07-28T04:17:41Z) - SEPT: Towards Scalable and Efficient Visual Pre-Training [11.345844145289524]
自己教師付き事前トレーニングは、ダウンストリームタスクのパフォーマンスを改善するために大規模なラベルなしデータを活用する大きな可能性を示している。
タスク固有の自己教師型事前学習フレームワークを構築し,対象タスクに類似した分布を持つ未ラベルサンプルの事前学習が,大幅な性能向上をもたらすという単純な仮説に基づいて構築する。
論文 参考訳(メタデータ) (2022-12-11T11:02:11Z) - Neighbour Consistency Guided Pseudo-Label Refinement for Unsupervised
Person Re-Identification [80.98291772215154]
教師なしの人物再識別(ReID)は、アノテーションを使わずに人物検索のための識別的アイデンティティの特徴を学習することを目的としている。
近年の進歩はクラスタリングに基づく擬似ラベルを活用することで実現されている。
本稿では, Pseudo Label Refinement フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T09:39:57Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。