論文の概要: Towards Label-Efficient Incremental Learning: A Survey
- arxiv url: http://arxiv.org/abs/2302.00353v2
- Date: Thu, 2 Feb 2023 08:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 16:46:36.462109
- Title: Towards Label-Efficient Incremental Learning: A Survey
- Title(参考訳): ラベル効率の高いインクリメンタル学習に向けて:調査
- Authors: Mert Kilickaya, Joost van de Weijer and Yuki M. Asano
- Abstract要約: 本研究では,学習者が様々な分布を持つデータストリームに適応するために,インクリメンタル学習を学習する。
ラベル付け作業を減らすために, セミショット, 数ショット, 自己教師型学習の3つの区分を同定した。
- 参考スコア(独自算出の注目度): 42.603603392991715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The current dominant paradigm when building a machine learning model is to
iterate over a dataset over and over until convergence. Such an approach is
non-incremental, as it assumes access to all images of all categories at once.
However, for many applications, non-incremental learning is unrealistic. To
that end, researchers study incremental learning, where a learner is required
to adapt to an incoming stream of data with a varying distribution while
preventing forgetting of past knowledge. Significant progress has been made,
however, the vast majority of works focus on the fully supervised setting,
making these algorithms label-hungry thus limiting their real-life deployment.
To that end, in this paper, we make the first attempt to survey recently
growing interest in label-efficient incremental learning. We identify three
subdivisions, namely semi-, few-shot- and self-supervised learning to reduce
labeling efforts. Finally, we identify novel directions that can further
enhance label-efficiency and improve incremental learning scalability. Project
website: https://github.com/kilickaya/label-efficient-il.
- Abstract(参考訳): 機械学習モデルを構築する際の現在の支配的なパラダイムは、収束するまでデータセットを何度も繰り返すことです。
このようなアプローチは非規範的であり、すべてのカテゴリの画像へのアクセスを一度に想定している。
しかし、多くのアプリケーションにとって、非増分学習は非現実的である。
そこで研究者たちは、学習者が過去の知識の忘れを防ぎながら、様々な分布を持つ入力データストリームに適応する必要があるインクリメンタルラーニングを研究する。
しかし、多くの作品が完全に監督された設定に焦点を合わせており、これらのアルゴリズムをラベル・ハングリーにすることで実際の展開を制限している。
そこで本稿では,ラベル効率の高いインクリメンタル・ラーニングに対する関心が高まっている最近の調査を初めて実施する。
ラベル付け作業を減らすために, セミショット, 数ショット, 自己教師型学習の3つの区分を同定した。
最後に,ラベル効率をさらに向上させ,インクリメンタル・ラーニング・スケーラビリティを向上させるための新しい方向を特定する。
プロジェクトウェブサイト: https://github.com/kilickaya/label-efficient-il
関連論文リスト
- Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking [32.47215340215641]
本稿では,連続学習研究の範囲を,複数物体追跡(MOT)のためのクラス増分学習に拡張する。
オブジェクト検出器の連続学習のための従来のソリューションは、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。
論文 参考訳(メタデータ) (2023-10-04T17:49:48Z) - A Survey of Label-Efficient Deep Learning for 3D Point Clouds [109.07889215814589]
本稿では,点雲のラベル効率学習に関する包括的調査を行う。
本稿では,ラベルの種類によって提供されるデータ前提条件に基づいて,ラベル効率のよい学習手法を整理する分類法を提案する。
それぞれのアプローチについて、問題設定の概要と、関連する進展と課題を示す広範な文献レビューを提供する。
論文 参考訳(メタデータ) (2023-05-31T12:54:51Z) - Adversarial Auto-Augment with Label Preservation: A Representation
Learning Principle Guided Approach [95.74102207187545]
本研究では,事前自由な自律的データ拡張の目的が表現学習の原則から導出可能であることを示す。
そこで我々は,既存の手法にシームレスに最適化し,シームレスに統合できる目的に対して,実用的なサロゲートを提案する。
論文 参考訳(メタデータ) (2022-11-02T02:02:51Z) - From Weakly Supervised Learning to Active Learning [1.52292571922932]
この論文は、教師付き学習よりも汎用的なフレームワークを導き出せるか?
私たちは、ユニークなターゲットではなく、ターゲット候補のセットを与えるものとして、弱い監督をモデル化します。
我々は、ほとんどの観測値と一致する楽観的な'関数を求めるべきだと論じる。これにより、部分ラベルを曖昧にするための原則を導出できる。
論文 参考訳(メタデータ) (2022-09-23T14:55:43Z) - Learning to Predict Gradients for Semi-Supervised Continual Learning [36.715712711431856]
マシンインテリジェンスの主な課題は、以前獲得した知識を忘れずに、新しい視覚概念を学習することだ。
既存の教師付き連続学習と人間のような知性の間にはギャップがあり、人間はラベル付きデータとラベルなしデータの両方から学ぶことができる。
我々は,既存の連続学習モデルに汎用的に適用可能な,半教師付き連続学習法を定式化した。
論文 参考訳(メタデータ) (2022-01-23T06:45:47Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。