論文の概要: Weakly Supervised Continual Learning
- arxiv url: http://arxiv.org/abs/2108.06552v1
- Date: Sat, 14 Aug 2021 14:38:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:24:14.512970
- Title: Weakly Supervised Continual Learning
- Title(参考訳): 弱い教師付き連続学習
- Authors: Matteo Boschini, Pietro Buzzega, Lorenzo Bonicelli, Angelo Porrello,
Simone Calderara
- Abstract要約: この研究は、弱々しい監視された継続的学習(WSCL)を探求する
我々の提案は、教師付き情報が不足している場合に高い柔軟性を示すだけでなく、25%未満のラベルが、完全な監督の下で訓練されたSOTAメソッドに到達したり、性能を上回るのに十分であることを示す。
そこで本手法では, 教師付き情報が少ない場合に高い柔軟性を示すだけでなく, 25%未満のラベルが, 完全監督下で訓練されたSOTA手法に到達したり, 性能を向上させるのに十分であることを示す。
- 参考スコア(独自算出の注目度): 17.90483695137098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Learning (CL) investigates how to train Deep Networks on a stream
of tasks without incurring catastrophic forgetting. CL settings proposed in the
literature assume that every incoming example is paired with ground-truth
annotations. However, this clashes with many real-world applications: gathering
labeled data, which is in itself tedious and expensive, becomes indeed
infeasible when data flow as a stream and must be consumed in real-time. This
work explores Weakly Supervised Continual Learning (WSCL): here, only a small
fraction of labeled input examples are shown to the learner. We assess how
current CL methods (e.g.: EWC, LwF, iCaRL, ER, GDumb, DER) perform in this
novel and challenging scenario, in which overfitting entangles forgetting.
Subsequently, we design two novel WSCL methods which exploit metric learning
and consistency regularization to leverage unsupervised data while learning. In
doing so, we show that not only our proposals exhibit higher flexibility when
supervised information is scarce, but also that less than 25% labels can be
enough to reach or even outperform SOTA methods trained under full supervision.
- Abstract(参考訳): 連続学習(CL)は、破滅的な忘れを伴わずに、タスクのストリーム上でディープネットワークのトレーニング方法を調査する。
文献で提案されたCL設定は、すべての入力サンプルが接地真実アノテーションとペアリングされていると仮定する。
しかし、これは多くの現実世界のアプリケーションと衝突する。ラベル付きデータの収集は、それ自体は面倒で高価であり、データの流れがストリームとして流れ、リアルタイムに消費されなければならないときに実際に実現不可能になる。
この研究は、Weakly Supervised Continual Learning (WSCL): ここでは、ラベル付き入力例のごく一部を学習者に示す。
CLメソッドの現在の方法(例)を評価する。
EWC, LwF, iCaRL, ER, GDumb, DER) は, この斬新で難解なシナリオにおいて, 過剰な絡み合いを忘れてしまう。
その後、メトリクス学習と整合性正規化を利用して学習中に教師なしデータを活用する2つの新しいWSCL手法を設計する。
その結果,提案手法は,情報監督時に高い柔軟性を示すだけでなく,25%未満のラベルが完全な監視下で訓練されたsotaメソッドに到達したり,あるいは上回ったりできることがわかった。
関連論文リスト
- Investigating the Pre-Training Dynamics of In-Context Learning: Task Recognition vs. Task Learning [99.05401042153214]
In-context Learning(ICL)は、タスク認識(TR)とタスク学習(TL)の2つの主要な能力に起因する可能性がある。
ICLの出現の事前学習のダイナミクスを調べることで、第一歩を踏み出す。
そこで本研究では,この2つの機能を推論時によりよく統合するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T06:37:47Z) - Continual Learning on a Diet: Learning from Sparsely Labeled Streams Under Constrained Computation [123.4883806344334]
本研究では,学習アルゴリズムが学習段階ごとに制限された計算予算を付与する,現実的な連続学習環境について検討する。
この設定を,スパースラベル率の高い大規模半教師付き連続学習シナリオに適用する。
広範に分析と改善を行った結果,DietCLはラベル空間,計算予算,その他様々な改善の完全な範囲で安定していることがわかった。
論文 参考訳(メタデータ) (2024-04-19T10:10:39Z) - DELTA: Decoupling Long-Tailed Online Continual Learning [7.507868991415516]
Long-Tailed Online Continual Learning (LTOCL)は、クラス不均衡なデータストリームのシーケンシャルな到着から新しいタスクを学ぶことを目的としている。
DELTAは,学習表現の強化を目的とした非結合型学習手法である。
我々は,DELTAが既存のOCL手法を超越して,インクリメンタル学習の能力を向上させることを実証した。
論文 参考訳(メタデータ) (2024-04-06T02:33:04Z) - In-Context Learning Learns Label Relationships but Is Not Conventional
Learning [60.891931501449726]
大規模言語モデルの文脈内学習(ICL)能力について、現時点では合意が得られていない。
ICLがラベル情報をどのように活用するかという新たな洞察を提供し、機能と制限の両方を明らかにします。
実験の結果, ICLの予測はコンテキスト内ラベルにほぼ常に依存しており, ICLはコンテキスト内における真に新しいタスクを学習できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T16:54:41Z) - Real-Time Evaluation in Online Continual Learning: A New Hope [104.53052316526546]
計算コストに関して,現在の継続学習(CL)手法を評価した。
簡単なベースラインは、この評価の下で最先端のCL法より優れている。
これは、既存のCL文献の大部分は、実用的でない特定の種類のストリームに適合していることを驚くほど示唆している。
論文 参考訳(メタデータ) (2023-02-02T12:21:10Z) - Beyond Supervised Continual Learning: a Review [69.9674326582747]
連続学習(Continuous Learning, CL)は、定常データ分布の通常の仮定を緩和または省略する機械学習のフレーバーである。
データ分布の変化は、いわゆる破滅的な忘れ(CF)効果、すなわち、過去の知識の突然の喪失を引き起こす可能性がある。
本稿では、CLを他の環境で研究する文献をレビューする。例えば、監督を減らした学習、完全に教師なしの学習、強化学習などである。
論文 参考訳(メタデータ) (2022-08-30T14:44:41Z) - Online Continual Learning on a Contaminated Data Stream with Blurry Task
Boundaries [17.43350151320054]
大量の連続学習(CL)手法は、クリーンなラベルを持つデータストリームを前提としており、ノイズの多いデータストリームの下でのオンライン学習シナリオはまだ探索されていない。
我々は、既存のCLメソッドが苦労しているラベル付きぼやけたデータストリームからオンライン学習のより実践的なCLタスク設定について検討する。
本稿では,ラベルノイズを意識した多様なサンプリングと,半教師付き学習による頑健な学習の統一的アプローチにより,メモリの管理と利用を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T08:52:45Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。