論文の概要: Rethinking Few-Shot Class-Incremental Learning with Open-Set Hypothesis
in Hyperbolic Geometry
- arxiv url: http://arxiv.org/abs/2207.09963v1
- Date: Wed, 20 Jul 2022 15:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:48:26.011155
- Title: Rethinking Few-Shot Class-Incremental Learning with Open-Set Hypothesis
in Hyperbolic Geometry
- Title(参考訳): 双曲幾何学における開集合仮説を用いた数ショットクラスインクリメンタルラーニングの再考
- Authors: Yawen Cui, Zitong Yu, Wei Peng, and Li Liu
- Abstract要約: FSCIL(Few-Shot Class-Incremental Learning)は、いくつかのラベル付きサンプルから新しいクラスを段階的に学習することを目的としている。
本稿では,FSCILの構成をオープンセット仮説で再考する。
モデルにクローズセットとオープンセットの両方の認識により良いパフォーマンスを割り当てるために、ハイパーボリック・リシパル・ポイント・ラーニングモジュール(Hyper-RPL)は、ハイパーボリック・ニューラルネットワークを備えたリシパル・ポイント・ラーニング(Reciprocal Point Learning、RPL)上に構築されている。
- 参考スコア(独自算出の注目度): 21.38183613466714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-Shot Class-Incremental Learning (FSCIL) aims at incrementally learning
novel classes from a few labeled samples by avoiding the overfitting and
catastrophic forgetting simultaneously. The current protocol of FSCIL is built
by mimicking the general class-incremental learning setting, while it is not
totally appropriate due to the different data configuration, i.e., novel
classes are all in the limited data regime. In this paper, we rethink the
configuration of FSCIL with the open-set hypothesis by reserving the
possibility in the first session for incoming categories. To assign better
performances on both close-set and open-set recognition to the model,
Hyperbolic Reciprocal Point Learning module (Hyper-RPL) is built on Reciprocal
Point Learning (RPL) with hyperbolic neural networks. Besides, for learning
novel categories from limited labeled data, we incorporate a hyperbolic metric
learning (Hyper-Metric) module into the distillation-based framework to
alleviate the overfitting issue and better handle the trade-off issue between
the preservation of old knowledge and the acquisition of new knowledge. The
comprehensive assessments of the proposed configuration and modules on three
benchmark datasets are executed to validate the effectiveness concerning three
evaluation indicators.
- Abstract(参考訳): few-shot class-incremental learning (fscil) はラベル付きサンプルから新しいクラスを段階的に学習することを目的としている。
fscilの現在のプロトコルは、一般的なクラスインクリメンタルな学習設定を模倣して構築されているが、異なるデータ構成、すなわち新しいクラスはすべて制限されたデータレジームにあるため、完全には適切ではない。
本稿では,FSCILの構成をオープンセット仮説で再考する。
このモデルにクローズセットとオープンセットの両方の認識の性能を割り当てるために、双曲逆点学習モジュール(hyper-rpl)は双曲型ニューラルネットワークと相反点学習(rpl)に基づいて構築される。
さらに,限定ラベルデータから新たなカテゴリを学習するためには,双曲的メトリック学習(hyper-metric)モジュールを蒸留ベースのフレームワークに組み込んでオーバーフィット問題を緩和し,古い知識の保存と新しい知識の獲得の間のトレードオフ問題をよりうまく処理する。
提案した構成と3つのベンチマークデータセット上のモジュールの総合評価を行い、3つの評価指標の有効性を検証する。
関連論文リスト
- Controllable Relation Disentanglement for Few-Shot Class-Incremental Learning [82.79371269942146]
本稿では,FewShot Class-Incremental Learning (FSCIL) を新たな視点,すなわち関係の絡み合いから扱うことを提案する。
急激な相関関係を切り離すことの課題は、FSCILの制御性が悪いことである。
我々は、CTRL-FSCIL(Controllable Relation-disentang FewShot Class-Incremental Learning)と呼ばれる、新しいシンプルな効果のある手法を提案する。
論文 参考訳(メタデータ) (2024-03-17T03:16:59Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Bias Mitigating Few-Shot Class-Incremental Learning [17.185744533050116]
クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T10:37:41Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Constructing Sample-to-Class Graph for Few-Shot Class-Incremental
Learning [10.111587226277647]
FSCIL(Few-shot class-incremental Learning)は、いくつかのデータサンプルから新しい概念を継続的に学習するマシンラーニングモデルの構築を目的とする。
本稿では,FSCILのためのS2Cグラフ学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-31T08:38:14Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Uncertainty-Aware Distillation for Semi-Supervised Few-Shot
Class-Incremental Learning [16.90277839119862]
クラス平衡による不確実性認識蒸留(UaD-CE)というフレームワークを提案する。
疑似ラベル生成において,クラスバランスの取れた自己学習を取り入れたCEモジュールを導入する。
3つのベンチマークデータセットの総合的な実験により、本手法はラベルなしデータの適応性を向上できることを示した。
論文 参考訳(メタデータ) (2023-01-24T12:53:06Z) - Memorizing Complementation Network for Few-Shot Class-Incremental
Learning [109.4206979528375]
本稿では,新しいタスクにおいて,異なる記憶された知識を補う複数のモデルをアンサンブルするために,MCNet(Memorizing Complementation Network)を提案する。
原型スムージング・ハードマイニング・トリプルト(PSHT)の損失を現時点の課題だけでなく,従来の分布からも引き離すために開発した。
論文 参考訳(メタデータ) (2022-08-11T02:32:41Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。