論文の概要: CCSI: Continual Class-Specific Impression for Data-free Class Incremental Learning
- arxiv url: http://arxiv.org/abs/2406.05631v1
- Date: Sun, 9 Jun 2024 03:52:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 18:46:42.946666
- Title: CCSI: Continual Class-Specific Impression for Data-free Class Incremental Learning
- Title(参考訳): CCSI:データフリー・インクリメンタル・ラーニングのための連続的なクラス特化表現
- Authors: Sana Ayromlou, Teresa Tsang, Purang Abolmaesumi, Xiaoxiao Li,
- Abstract要約: クラスインクリメンタル学習は、特定の病気クラスで訓練されたディープネットワークを新しい病気に適応することで、有望なソリューションを提供する。
以前に提案された手法では、過去のサンプルを永久に保存する必要がある。
本研究では,従来の学習クラスからのデータストレージの代わりに,学習クラス上でのデータ合成を利用する新しいデータ自由クラスインクリメンタルラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 22.37848405465699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In real-world clinical settings, traditional deep learning-based classification methods struggle with diagnosing newly introduced disease types because they require samples from all disease classes for offline training. Class incremental learning offers a promising solution by adapting a deep network trained on specific disease classes to handle new diseases. However, catastrophic forgetting occurs, decreasing the performance of earlier classes when adapting the model to new data. Prior proposed methodologies to overcome this require perpetual storage of previous samples, posing potential practical concerns regarding privacy and storage regulations in healthcare. To this end, we propose a novel data-free class incremental learning framework that utilizes data synthesis on learned classes instead of data storage from previous classes. Our key contributions include acquiring synthetic data known as Continual Class-Specific Impression (CCSI) for previously inaccessible trained classes and presenting a methodology to effectively utilize this data for updating networks when introducing new classes. We obtain CCSI by employing data inversion over gradients of the trained classification model on previous classes starting from the mean image of each class inspired by common landmarks shared among medical images and utilizing continual normalization layers statistics as a regularizer in this pixel-wise optimization process. Subsequently, we update the network by combining the synthesized data with new class data and incorporate several losses, including an intra-domain contrastive loss to generalize the deep network trained on the synthesized data to real data, a margin loss to increase separation among previous classes and new ones, and a cosine-normalized cross-entropy loss to alleviate the adverse effects of imbalanced distributions in training data.
- Abstract(参考訳): 実世界の臨床環境では、従来のディープラーニングに基づく分類手法は、オフライントレーニングのためにすべての病気のクラスからのサンプルを必要とするため、新しく導入された病気のタイプを診断するのに苦労する。
クラスインクリメンタル学習は、特定の病気クラスで訓練されたディープネットワークを新しい病気に適応することで、有望なソリューションを提供する。
しかし、破滅的な忘れ込みが起こり、新しいデータにモデルを適用する際に、初期のクラスの性能が低下する。
以前に提案された手法では、以前のサンプルを永久に保存する必要があるため、医療におけるプライバシーや保管規制に関して潜在的に懸念される可能性がある。
そこで本研究では,従来の学習クラスからのデータストレージではなく,学習クラス上でのデータ合成を利用する,新しいデータ自由クラスインクリメンタルラーニングフレームワークを提案する。
我々の重要な貢献は、それまでアクセス不能であったクラスに対して、連続クラス印象(CCSI)と呼ばれる合成データを取得し、新しいクラスを導入する際に、このデータを効果的に活用するための方法論を提示することである。
医用画像間で共有される共通のランドマークにインスパイアされた各クラスの平均画像から始まり、この画素ワイド最適化プロセスにおいて、連続正規化層統計を正規化器として利用することにより、トレーニング済み分類モデルの勾配に対するデータ反転を利用してCCSIを得る。
その後、合成データと新しいクラスデータを組み合わせることでネットワークを更新し、ドメイン内コントラスト損失を具体化し、合成データに基づいて訓練されたディープネットワークを実データに一般化する、マージン損失を前のクラスと新しいクラス間の分離を増大させる、コサイン正規化されたクロスエントロピー損失をトレーニングデータにおける不均衡分布の悪影響を軽減する、といった、いくつかの損失を伴って、ネットワークを更新する。
関連論文リスト
- From Uncertainty to Clarity: Uncertainty-Guided Class-Incremental Learning for Limited Biomedical Samples via Semantic Expansion [0.0]
バイオメディカル分野における限られたサンプルの下でのクラスインクリメンタル学習手法を提案する。
提案手法は,最先端の手法を最大53.54%の精度で上回り,最適性能を実現する。
論文 参考訳(メタデータ) (2024-09-12T05:22:45Z) - Continual Domain Incremental Learning for Privacy-aware Digital Pathology [3.6630930118966814]
連続学習(CL)技術は、分散シフト条件で新しいデータを学習する際の過去のデータ忘れを減らすことを目的としている。
我々は、過去のデータを格納し、新しいデータで潜在リプレイを行うために、ジェネレーティブ潜在リプレイベースのCL(GLRCL)アプローチを開発する。
論文 参考訳(メタデータ) (2024-09-10T12:21:54Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - Class Impression for Data-free Incremental Learning [20.23329169244367]
ディープラーニングベースの分類アプローチでは、事前にすべてのクラスからすべてのサンプルを収集し、オフラインでトレーニングする必要がある。
このパラダイムは、新しいデータの追加によって新しいクラスが徐々に導入される現実世界の臨床応用では実用的ではないかもしれない。
本稿では,従来のクラスでトレーニングされたモデルからデータを初めて合成し,本クラスを生成する,新しいデータ自由クラスインクリメンタルラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-26T06:20:17Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z) - Move-to-Data: A new Continual Learning approach with Deep CNNs,
Application for image-class recognition [0.0]
トレーニング記録フェーズ」でモデルを事前トレーニングし、新しいデータに調整する必要がある。
本稿では,ニューラルネットワークの終端における高速連続学習層を提案する。
論文 参考訳(メタデータ) (2020-06-12T13:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。