論文の概要: Leveraging Old Knowledge to Continually Learn New Classes in Medical
Images
- arxiv url: http://arxiv.org/abs/2303.13752v1
- Date: Fri, 24 Mar 2023 02:10:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 16:02:02.964885
- Title: Leveraging Old Knowledge to Continually Learn New Classes in Medical
Images
- Title(参考訳): 医用画像の新しいクラスを継続的に学習する古い知識の活用
- Authors: Evelyn Chee, Mong Li Lee, Wynne Hsu
- Abstract要約: 我々は、破滅的なことを忘れずに新しいクラスを学ぶために、いかに古い知識を活用できるかに焦点を当てる。
我々のソリューションは、最先端のベースラインよりも、クラスの正確さと忘れやすさにおいて優れたパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 16.730335437094592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-incremental continual learning is a core step towards developing
artificial intelligence systems that can continuously adapt to changes in the
environment by learning new concepts without forgetting those previously
learned. This is especially needed in the medical domain where continually
learning from new incoming data is required to classify an expanded set of
diseases. In this work, we focus on how old knowledge can be leveraged to learn
new classes without catastrophic forgetting. We propose a framework that
comprises of two main components: (1) a dynamic architecture with expanding
representations to preserve previously learned features and accommodate new
features; and (2) a training procedure alternating between two objectives to
balance the learning of new features while maintaining the model's performance
on old classes. Experiment results on multiple medical datasets show that our
solution is able to achieve superior performance over state-of-the-art
baselines in terms of class accuracy and forgetting.
- Abstract(参考訳): クラス増分連続学習は、以前学んだことを忘れずに新しい概念を学習することで、環境の変化に継続的に適応できる人工知能システムを開発するための中核的なステップである。
これは、拡大した疾患群を分類するために、新しい入力データから継続的に学習する必要がある医療領域において特に必要である。
本研究は,古い知識をいかに活用し,破滅的な忘れを伴わずに新しいクラスを学習できるかに焦点をあてる。
本研究では,(1)事前学習した特徴を保存し,新たな特徴に対応するために表現を拡張した動的アーキテクチャ,(2)古いクラスにおけるモデルの性能を維持しながら,新たな特徴の学習のバランスをとるための2つの目的の訓練手順を提案する。
複数の医学データセットに対する実験結果から,我々のソリューションは,クラス精度や忘れやすさの観点から,最先端のベースラインよりも優れた性能が得られることが示された。
関連論文リスト
- Evolving Knowledge Mining for Class Incremental Segmentation [113.59611699693092]
クラスインクリメンタルセマンティック(CISS)は、最近、現実世界のアプリケーションにおいて大きな重要性があるため、トレンドとなっている。
冷凍バックボーンを用いた新規なkNowleDgeマイニング法を提案する。
提案手法を2つの広く使用されているベンチマークで評価し,新しい最先端性能を一貫して示す。
論文 参考訳(メタデータ) (2023-06-03T07:03:15Z) - A Forward and Backward Compatible Framework for Few-shot Class-incremental Pill Recognition [24.17119669744624]
本稿では,最初の数発のクラスインクリメンタル・ピル認識フレームワークを紹介する。
前方互換と後方互換の学習コンポーネントを含んでいる。
実験の結果,我々のフレームワークは既存の最先端(SOTA)メソッドを超越していることがわかった。
論文 参考訳(メタデータ) (2023-04-24T09:53:21Z) - Adapter Learning in Pretrained Feature Extractor for Continual Learning
of Diseases [66.27889778566734]
現在、インテリジェント診断システムには、デプロイされたばかりの新しい病気を継続的に診断する能力がない。
特に、新しい疾患のトレーニングデータを用いたインテリジェント診断システムの更新は、古い疾患の知識を壊滅的に忘れてしまう可能性がある。
ACLと呼ばれるアダプタベースの連続学習フレームワークは、新しい病気の集合を効果的に学習するために提案されている。
論文 参考訳(メタデータ) (2023-04-18T15:01:45Z) - Class-Incremental Learning of Plant and Disease Detection: Growing
Branches with Knowledge Distillation [0.0]
本稿では,農業利用におけるクラスインクリメンタルオブジェクト検出の問題点について検討する。
より現実的でダイナミックなシナリオをシミュレートして、時間とともに新しいカテゴリを含むように、2つのパブリックデータセットを適用します。
異なる形態の知識蒸留を利用して破滅的忘れを緩和する3つのクラス増分学習法を比較した。
論文 参考訳(メタデータ) (2023-04-13T15:40:41Z) - Adaptively Integrated Knowledge Distillation and Prediction Uncertainty
for Continual Learning [71.43841235954453]
現在のディープラーニングモデルは、新しい知識を継続的に学習するときに、古い知識を破滅的に忘れることに悩まされることが多い。
この問題を軽減する既存の戦略は、古い知識(安定性)の維持と新しい知識(塑性)の学習のトレードオフを解消することが多い。
論文 参考訳(メタデータ) (2023-01-18T05:36:06Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - The Role of Bio-Inspired Modularity in General Learning [0.0]
汎用知能の1つの目標は、事前学習を上書きすることなく、新しい情報を学ぶことである。
以前の知識をブートストラップすることで、新しいタスクの学習を早めることができる。
モジュール性は、破滅的な忘れとブートストラップの制約なしに学習に固執する、重み付けされた学習方法のソリューションを提供するかもしれない。
論文 参考訳(メタデータ) (2021-09-23T18:45:34Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。