論文の概要: RECALL+: Adversarial Web-based Replay for Continual Learning in Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2309.10479v1
- Date: Tue, 19 Sep 2023 09:50:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 15:14:33.171074
- Title: RECALL+: Adversarial Web-based Replay for Continual Learning in Semantic
Segmentation
- Title(参考訳): recall+: 意味セグメンテーションにおける連続学習のためのwebベースリプレイ
- Authors: Chang Liu, Giulia Rizzoli, Francesco Barbato, Umberto Michieli, Yi Niu
and Pietro Zanuttigh
- Abstract要約: 我々は従来のアプローチを拡張し、教師なしのWebcrawledデータを活用することで、忘れることに取り組みます。
逆学習と適応しきい値に基づく2つの新しいアプローチを導入し,Webデータから選択する。
実験結果から,この拡張アプローチは,特に複数の段階的な学習ステップが実行された場合,顕著な結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 26.542708023152763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Catastrophic forgetting of previous knowledge is a critical issue in
continual learning typically handled through various regularization strategies.
However, existing methods struggle especially when several incremental steps
are performed. In this paper, we extend our previous approach (RECALL) and
tackle forgetting by exploiting unsupervised web-crawled data to retrieve
examples of old classes from online databases. Differently from the original
approach that did not perform any evaluation of the web data, here we introduce
two novel approaches based on adversarial learning and adaptive thresholding to
select from web data only samples strongly resembling the statistics of the no
longer available training ones. Furthermore, we improved the pseudo-labeling
scheme to achieve a more accurate labeling of web data that also consider
classes being learned in the current step. Experimental results show that this
enhanced approach achieves remarkable results, especially when multiple
incremental learning steps are performed.
- Abstract(参考訳): 過去の知識の破滅的な忘れは、通常様々な正規化戦略によって扱われる連続学習において重要な問題である。
しかし、いくつかの段階的なステップが実行される場合、既存の手法は特に苦労する。
本稿では,従来の手法(RECALL)を拡張し,教師なしのWebクローリングデータを活用して,オンラインデータベースから古いクラスの例を検索する。
ウェブデータの評価を行なわなかった当初のアプローチとは違って、逆学習と適応しきい値に基づく2つの新しいアプローチを導入し、Webデータからのみ、もはや利用できないトレーニングデータの統計に強く類似したサンプルを選択する。
さらに,疑似ラベル方式を改善し,現在のステップで学習されるクラスも考慮した,より正確なwebデータのラベル付けを実現する。
実験結果から,この拡張アプローチは,特に複数の段階的な学習ステップを行う場合,顕著な結果が得られることがわかった。
関連論文リスト
- Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Learning to Learn for Few-shot Continual Active Learning [9.283518682371756]
継続的な学習は、新しいドメインで可塑性を示しながら、以前見たタスクを解く際の安定性を確保するために努力する。
連続学習の最近の進歩は、特にNLPドメインにおいて、主に教師付き学習環境に限られている。
我々はメタラーニングを活用し,メタコンチネンタルアクティブラーニングと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T05:22:11Z) - Label-efficient Time Series Representation Learning: A Review [19.218833228063392]
ラベル効率のよい時系列表現学習は、現実世界のアプリケーションにディープラーニングモデルをデプロイするのに不可欠である。
ラベル付き時系列データの不足に対処するため、転送学習、自己教師付き学習、半教師付き学習など様々な戦略が開発されている。
既存のアプローチを,外部データソースへの依存に基づいて,ドメイン内あるいはクロスドメインとして分類する,新たな分類法を初めて導入する。
論文 参考訳(メタデータ) (2023-02-13T15:12:15Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Reinforced Meta Active Learning [11.913086438671357]
本稿では,データから直接情報提供度を学習する,オンラインストリームに基づくメタアクティブ学習手法を提案する。
本手法は、強化学習に基づいて、エピソードポリシー検索と文脈的バンディットアプローチを組み合わせたものである。
本研究では,本手法が既存の最先端手法よりも効率的にトレーニングサンプルを選択できることを実データで示す。
論文 参考訳(メタデータ) (2022-03-09T08:36:54Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - An EM Framework for Online Incremental Learning of Semantic Segmentation [37.94734474090863]
本稿では,新しいクラスのみに画素アノテーションを付加したストリーミング入力データを用いて,大惨な忘れをせずに深いセグメンテーションモデルを適応できる漸進的な学習戦略を提案する。
PASCAL VOC 2012とADE20Kデータセットに対するアプローチを検証するとともに,既存のインクリメンタルメソッドよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-08T11:30:09Z) - Ask-n-Learn: Active Learning via Reliable Gradient Representations for
Image Classification [29.43017692274488]
深い予測モデルは、ラベル付きトレーニングデータという形で人間の監督に依存する。
Ask-n-Learnは,各アルゴリズムで推定されたペスドラベルを用いて得られる勾配埋め込みに基づく能動的学習手法である。
論文 参考訳(メタデータ) (2020-09-30T05:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。