論文の概要: IIRC: Incremental Implicitly-Refined Classification
- arxiv url: http://arxiv.org/abs/2012.12477v2
- Date: Mon, 11 Jan 2021 21:58:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 05:36:05.095763
- Title: IIRC: Incremental Implicitly-Refined Classification
- Title(参考訳): IIRC:Incrmental Implicitly-Refined Classification
- Authors: Mohamed Abdelsalam, Mojtaba Faramarzi, Shagun Sodhani, Sarath Chandar
- Abstract要約: Incremental Implicitly-Refined Classi-fication (IIRC)"は、クラスインクリメンタルラーニングセットアップの拡張である。
最先端の生涯学習アルゴリズムをいくつか評価し,その強みと限界を強調する。
- 参考スコア(独自算出の注目度): 6.609601388303146
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We introduce the "Incremental Implicitly-Refined Classi-fication (IIRC)"
setup, an extension to the class incremental learning setup where the incoming
batches of classes have two granularity levels. i.e., each sample could have a
high-level (coarse) label like "bear" and a low-level (fine) label like "polar
bear". Only one label is provided at a time, and the model has to figure out
the other label if it has already learnfed it. This setup is more aligned with
real-life scenarios, where a learner usually interacts with the same family of
entities multiple times, discovers more granularity about them, while still
trying not to forget previous knowledge. Moreover, this setup enables
evaluating models for some important lifelong learning challenges that cannot
be easily addressed under the existing setups. These challenges can be
motivated by the example "if a model was trained on the class bear in one task
and on polar bear in another task, will it forget the concept of bear, will it
rightfully infer that a polar bear is still a bear? and will it wrongfully
associate the label of polar bear to other breeds of bear?". We develop a
standardized benchmark that enables evaluating models on the IIRC setup. We
evaluate several state-of-the-art lifelong learning algorithms and highlight
their strengths and limitations. For example, distillation-based methods
perform relatively well but are prone to incorrectly predicting too many labels
per image. We hope that the proposed setup, along with the benchmark, would
provide a meaningful problem setting to the practitioners
- Abstract(参考訳): irc(incremental implicitly-refined classi-fication)という,クラス単位のバッチが2つの粒度レベルを持つ,クラスインクリメンタル学習のセットアップの拡張について紹介する。
すなわち、それぞれのサンプルは、"bear"のような高レベル(粗い)ラベルと、"polar bear"のような低レベル(細い)ラベルを持つことができる。
一度に1つのラベルしか提供されておらず、モデルはすでに学習している場合は、別のラベルを見つけなければなりません。
この設定は、学習者が通常、同じエンティティのファミリーと複数回対話し、それらについてより粒度の大きいことを発見しながら、以前の知識を忘れないようにしようとする実際のシナリオとより一致している。
さらに、この設定により、既存の設定では容易に対処できない重要な生涯学習課題に対するモデルの評価が可能になる。
これらの課題は、「もしモデルが1つのタスクでクラスクマに訓練され、別のタスクでホッキョクグマに訓練されたら、それはクマの概念を忘れるのか、ホッキョクグマがまだクマであることを正しく推測するのか?」という例に動機づけられる。
そしてそれは、ホッキョクグマのラベルを他のクマの品種と誤って関連付けるだろうか?
我々は,IIRCセットアップ上でモデルを評価するための標準ベンチマークを開発する。
最先端の生涯学習アルゴリズムをいくつか評価し,その強みと限界を強調する。
例えば、蒸留法は比較的よく機能するが、画像ごとにラベルが多すぎることを誤って予測する傾向がある。
提案された設定とベンチマークが、実践者に有意義な問題設定を提供することを期待しています。
関連論文リスト
- Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Learning from Label Proportions: Bootstrapping Supervised Learners via Belief Propagation [18.57840057487926]
LLP(Learning from Label Proportions)は、トレーニング中にバッグと呼ばれるインスタンスのグループに対して、アグリゲートレベルのラベルしか利用できない学習問題である。
この設定は、プライバシー上の配慮から、広告や医療などの領域で発生する。
本稿では,この問題に対して,反復的に2つの主要なステップを実行する新しいアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T06:09:26Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - On the Informativeness of Supervision Signals [31.418827619510036]
我々は情報理論を用いて、多くの一般的な監視信号が表現学習のパフォーマンスにどのように貢献するかを比較する。
我々のフレームワークは、ビッグデータシステムにおいてハードラベルを使用するための理論的正当性を提供するが、よりリッチな監視信号により、数発の学習とアウト・オブ・ディストリビューションの一般化を実現している。
論文 参考訳(メタデータ) (2022-11-02T18:02:31Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - Barely-Supervised Learning: Semi-Supervised Learning with very few
labeled images [16.905389887406894]
我々は、画像の弱い拡張バージョンに依存して監視信号を得る、最先端の半教師方式 FixMatch の振舞いを深く分析する。
疑似ラベルを高い信頼性で予測できない場合、トレーニング信号の欠如により、ほとんど監督されていないシナリオで頻繁に失敗することを示す。
本研究では,自信ある擬似ラベルが存在しない状態でのトレーニング信号を提供する自己教師型手法を活用する手法を提案する。
論文 参考訳(メタデータ) (2021-12-22T16:29:10Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Are Fewer Labels Possible for Few-shot Learning? [81.89996465197392]
ごく限られたデータとラベルのため、わずかなショット学習は難しい。
近年のBiT (Big Transfer) 研究は、異なる領域における大規模ラベル付きデータセットの事前トレーニングによって、少数ショット学習が大きな恩恵を受けることを示した。
本稿では,ファインチューニングにおけるクラスタリングと固有サンプルの共進化を活かし,ショット学習の削減を図る。
論文 参考訳(メタデータ) (2020-12-10T18:59:29Z) - Exemplar Guided Active Learning [13.084183663366824]
我々は、限られた予算を用いて、大規模な未ラベルデータセットの小さなサブセットをラベル付けする問題を賢明に検討する。
いずれにせよ、知識ベースから候補ラベルのセットがあるが、ラベルセットは必ずしもデータに何が起こるかを表すものではない。
本稿では,現代言語モデルが提供する文脈埋め込み空間を活用することで,希少なクラスを明示的に検索する能動的学習手法について述べる。
論文 参考訳(メタデータ) (2020-11-02T20:01:39Z) - One-bit Supervision for Image Classification [121.87598671087494]
1ビットの監視は、不完全なアノテーションから学ぶための新しい設定である。
負ラベル抑圧を既成の半教師付き学習アルゴリズムに組み込んだ多段階学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-09-14T03:06:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。