論文の概要: Few-shot Class-incremental Learning: A Survey
- arxiv url: http://arxiv.org/abs/2308.06764v2
- Date: Sat, 16 Dec 2023 23:13:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 20:18:45.324695
- Title: Few-shot Class-incremental Learning: A Survey
- Title(参考訳): 授業増分学習についての一考察
- Authors: Jinghua Zhang and Li Liu and Olli Silv\'en and Matti Pietik\"ainen and
Dewen Hu
- Abstract要約: FSCIL(Few-shot Class-Incremental Learning)は機械学習(ML)においてユニークな課題を提示する
本稿は、FSCILの総合的かつ体系的なレビューを提供することを目的としている。
- 参考スコア(独自算出の注目度): 16.729567512584822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot Class-Incremental Learning (FSCIL) presents a unique challenge in
Machine Learning (ML), as it necessitates the Incremental Learning (IL) of new
classes from sparsely labeled training samples without forgetting previous
knowledge. While this field has seen recent progress, it remains an active
exploration area. This paper aims to provide a comprehensive and systematic
review of FSCIL. In our in-depth examination, we delve into various facets of
FSCIL, encompassing the problem definition, the discussion of the primary
challenges of unreliable empirical risk minimization and the
stability-plasticity dilemma, general schemes, and relevant problems of IL and
Few-shot Learning (FSL). Besides, we offer an overview of benchmark datasets
and evaluation metrics. Furthermore, we introduce the Few-shot
Class-incremental Classification (FSCIC) methods from data-based,
structure-based, and optimization-based approaches and the Few-shot
Class-incremental Object Detection (FSCIOD) methods from anchor-free and
anchor-based approaches. Beyond these, we present several promising research
directions within FSCIL that merit further investigation.
- Abstract(参考訳): 少数ショットのクラスインクリメンタルラーニング(fscil)は、機械学習(ml)において、以前の知識を忘れずにラベル付けされたトレーニングサンプルから新しいクラスのインクリメンタルラーニング(il)を必要とするため、ユニークな課題を示している。
この領域は近年進歩しているが、現在も活発な探検地である。
本稿では,FSCILの総合的かつ体系的なレビューを行うことを目的とする。
本研究は, FSCILの様々な側面を掘り下げ, 問題定義, 信頼性の低い経験的リスク最小化の課題, 安定性・可塑性ジレンマ, 一般的なスキーム, ILとFew-shot Learning(FSL)の関連問題について考察した。
さらに、ベンチマークデータセットと評価指標の概要も提供する。
さらに,Few-shot Class-incremental Classification (FSCIC)法と,Few-shot Class-incremental Object Detection (FSCIOD)法を,アンカーフリーおよびアンカーベースアプローチから導入する。
さらに, FSCIL の今後の研究の方向性として, さらなる研究の成果を挙げる。
関連論文リスト
- CLOSER: Towards Better Representation Learning for Few-Shot Class-Incremental Learning [52.63674911541416]
FSCIL(Few-shot class-incremental Learning)は、過剰適合や忘れなど、いくつかの課題に直面している。
FSCILの独特な課題に取り組むため、ベースクラスでの表現学習に重点を置いている。
より制限された機能空間内で機能の拡散を確保することで、学習された表現が、伝達可能性と識別可能性のバランスを良くすることが可能になることが分かりました。
論文 参考訳(メタデータ) (2024-10-08T02:23:16Z) - Fine-Grained Zero-Shot Learning: Advances, Challenges, and Prospects [84.36935309169567]
ゼロショット学習(ZSL)における微粒化解析の最近の進歩を概観する。
まず、各カテゴリの詳細な分析を行い、既存の手法と手法の分類について述べる。
次に、ベンチマークを要約し、公開データセット、モデル、実装、およびライブラリとしての詳細について説明する。
論文 参考訳(メタデータ) (2024-01-31T11:51:24Z) - Low-shot Object Learning with Mutual Exclusivity Bias [27.67152913041082]
本稿では,相互排他バイアスの計算フレーミングであるLSME(Low-shot Object Learning with Mutual Exclusivity Bias)を紹介する。
我々は、MLコミュニティがこの挑戦的な学習課題に対処できるように、新しいデータセット、包括的なベースライン、最先端の手法を提供する。
論文 参考訳(メタデータ) (2023-12-06T14:54:10Z) - S3C: Self-Supervised Stochastic Classifiers for Few-Shot
Class-Incremental Learning [22.243176199188238]
FSCIL(Few-shot class-incremental Learning)は、既に学習済みのクラスについての知識を忘れずに、ラベル付きサンプルがほとんどない新しいクラスについて徐々に学習することを目的としている。
FSCILには2つの大きな課題がある: (i) 限られたデータ量のために新しいクラスに過度に適合すること、 (ii) 段階的にこれらのクラスからのデータが利用できないために古いクラスを破滅的に忘れること。
論文 参考訳(メタデータ) (2023-07-05T12:41:46Z) - A Survey on Few-Shot Class-Incremental Learning [11.68962265057818]
FSCIL(Few-shot class-incremental Learning)は、ディープニューラルネットワークが新しいタスクを学習する上で重要な課題である。
本稿では, FSCILに関する包括的調査を行う。
FSCILはコンピュータビジョンの様々な分野で大きな成果を上げている。
論文 参考訳(メタデータ) (2023-04-17T10:15:08Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Recent Few-Shot Object Detection Algorithms: A Survey with Performance
Comparison [54.357707168883024]
Few-Shot Object Detection (FSOD)は、人間の学習能力を模倣する。
FSODは、学習した汎用オブジェクトの知識を共通のヘビーテールから新しいロングテールオブジェクトクラスにインテリジェントに転送する。
本稿では,問題定義,共通データセット,評価プロトコルなどを含むFSODの概要を紹介する。
論文 参考訳(メタデータ) (2022-03-27T04:11:28Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。