論文の概要: Self-Training for Class-Incremental Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2012.03362v2
- Date: Thu, 25 Mar 2021 09:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 03:49:22.628497
- Title: Self-Training for Class-Incremental Semantic Segmentation
- Title(参考訳): クラスインクリメンタルセマンティクスセグメンテーションのための自己学習
- Authors: Lu Yu, Xialei Liu, Joost van de Weijer
- Abstract要約: クラスインクリメンタルなセマンティックセグメンテーションでは、以前のタスクのラベル付きデータにアクセスできません。
本稿では,従来の知識のリハーサルに使用されるラベルなしデータを活用した自己学習手法を提案する。
自己エントロピーの最大化は、過信予測を円滑にすることで、結果をさらに改善できることを示す。
- 参考スコア(独自算出の注目度): 40.45305849257127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In class-incremental semantic segmentation we have no access to the labeled
data of previous tasks. Therefore, when incrementally learning new classes,
deep neural networks suffer from catastrophic forgetting of previously learned
knowledge. To address this problem, we propose to apply a self-training
approach that leverages unlabeled data, which is used for rehearsal of previous
knowledge. Additionally, conflict reduction is proposed to resolve the
conflicts of pseudo labels generated from both the old and new models. We show
that maximizing self-entropy can further improve results by smoothing the
overconfident predictions. Interestingly, in the experiments we show that the
auxiliary data can be different from the training data and that even
general-purpose but diverse auxiliary data can lead to large performance gains.
The experiments demonstrate state-of-the-art results: obtaining a relative gain
of up to 114% on Pascal-VOC 2012 and 8.5% on the more challenging ADE20K
compared to previous state-of-the-art methods.
- Abstract(参考訳): class-incremental semantic segmentationでは、以前のタスクのラベル付きデータにアクセスできません。
したがって、新しいクラスを徐々に学ぶと、ディープニューラルネットワークは過去の学習した知識を壊滅的に忘れてしまう。
この問題に対処するために,従来の知識のリハーサルに使用されるラベルなしデータを活用した自己学習手法を提案する。
さらに、古いモデルと新しいモデルの両方から生成された擬似ラベルの競合を解決するために競合低減が提案されている。
自己エントロピーの最大化は、過信予測を円滑にすることで、結果をさらに改善できることを示す。
興味深いことに、実験では、補助データがトレーニングデータと異なる可能性があり、汎用的で多様な補助データでさえ大きなパフォーマンス向上をもたらすことが示されている。
実験は最先端の結果を示しており、Pascal-VOC 2012では114%、ADE20Kでは8.5%と、従来の最先端の手法に比べて高い。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Dissecting Deep RL with High Update Ratios: Combatting Value Divergence [21.282292112642747]
ネットワークパラメータをリセットすることなく、深層強化学習アルゴリズムが学習能力を維持できることを示す。
我々は,大規模な更新率での学習を可能にする,単純な単球正規化を採用している。
論文 参考訳(メタデータ) (2024-03-09T19:56:40Z) - A Supervised Contrastive Learning Pretrain-Finetune Approach for Time
Series [15.218841180577135]
本稿では,教師付きコントラスト学習を利用して,事前学習データセット内の特徴を識別する新しい事前学習手法を提案する。
次に、事前学習データセットの学習力学とより密に連携することで、目標データの正確な予測を強化するための微調整手順を提案する。
論文 参考訳(メタデータ) (2023-11-21T02:06:52Z) - Continual Learning for Out-of-Distribution Pedestrian Detection [16.457778420360537]
歩行者検出におけるアウト・オブ・ディストリビューションの一般化問題に対処するために,連続学習ソリューションを提案する。
本手法は,弾性重み付けをバックボーンオブジェクト検出ネットワークに導入・変更する。
我々は、あるデータセットでトレーニングを行い、別のデータセットで微調整を行うと、新しいディストリビューションを学習し、前のデータセットのパフォーマンスを維持できることを示した。
論文 参考訳(メタデータ) (2023-06-26T23:55:00Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - Last Layer Marginal Likelihood for Invariance Learning [12.00078928875924]
我々は、より大きな確率関数のクラスに対する推論を行うことができるような、限界確率に対する新しい下界を導入する。
我々は、最後の層にガウス的プロセスを持つアーキテクチャを使用することで、このアプローチをニューラルネットワークに導入することに取り組んでいます。
論文 参考訳(メタデータ) (2021-06-14T15:40:51Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - Learning from Similarity-Confidence Data [94.94650350944377]
類似度信頼性(Sconf)データから学習する新しい弱監督学習問題について検討する。
本研究では,Sconfデータのみから計算可能な分類リスクの非バイアス推定器を提案し,推定誤差境界が最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2021-02-13T07:31:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。