論文の概要: Few-shot Class-incremental Learning for Cross-domain Disease
Classification
- arxiv url: http://arxiv.org/abs/2304.05734v1
- Date: Wed, 12 Apr 2023 09:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 15:29:32.644710
- Title: Few-shot Class-incremental Learning for Cross-domain Disease
Classification
- Title(参考訳): クロスドメイン疾患分類のためのマイズショットクラスインクリメンタルラーニング
- Authors: Hao Yang, Weijian Huang, Jiarun Liu, Cheng Li, Shanshan Wang
- Abstract要約: ドメイン間数ショットの漸進的学習問題について検討する。
本稿では,クロスドメイン拡張制約とクロスドメインデータ拡張手法を提案する。
MedMNISTの実験により、この手法の分類性能は、他の同様の漸進的学習法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 20.194071205063153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to incrementally learn new classes from limited samples is
crucial to the development of artificial intelligence systems for real clinical
application. Although existing incremental learning techniques have attempted
to address this issue, they still struggle with only few labeled data,
particularly when the samples are from varied domains. In this paper, we
explore the cross-domain few-shot incremental learning (CDFSCIL) problem.
CDFSCIL requires models to learn new classes from very few labeled samples
incrementally, and the new classes may be vastly different from the target
space. To counteract this difficulty, we propose a cross-domain enhancement
constraint and cross-domain data augmentation method. Experiments on MedMNIST
show that the classification performance of this method is better than other
similar incremental learning methods.
- Abstract(参考訳): 限られたサンプルから新しいクラスを段階的に学ぶ能力は、実際の臨床応用のための人工知能システムの開発に不可欠である。
既存の漸進的学習技術はこの問題に対処しようと試みているが、サンプルが様々な領域から来ている場合、ラベル付きデータはほとんどない。
本稿では,cdfscil(cross-domain few-shot incremental learning)問題について検討する。
CDFSCILは、非常に少数のラベル付きサンプルから新しいクラスを段階的に学習するモデルを必要とし、新しいクラスはターゲット空間と大きく異なるかもしれない。
この課題に対処するため,クロスドメイン拡張制約とクロスドメインデータ拡張手法を提案する。
MedMNISTの実験から,本手法の分類性能は,他の漸進学習法よりも優れていることが示された。
関連論文リスト
- Class-incremental Learning for Time Series: Benchmark and Evaluation [25.613141772513305]
本稿では,時系列クラスインクリメンタルラーニング(TSCIL)問題の概要を述べる。
標準化された設定に基づいて,新しいアルゴリズムの迅速な開発を支援する統一的な実験フレームワークを開発する。
このフレームワークを用いて、標準およびプライバシに敏感なシナリオにおいて、様々な汎用および時系列固有のCIL手法を包括的に評価する。
論文 参考訳(メタデータ) (2024-02-19T10:43:13Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations [80.76164484820818]
多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
論文 参考訳(メタデータ) (2022-10-25T21:54:26Z) - A Multi-label Continual Learning Framework to Scale Deep Learning
Approaches for Packaging Equipment Monitoring [57.5099555438223]
連続シナリオにおけるマルチラベル分類を初めて研究した。
タスク数に関して対数的複雑性を持つ効率的なアプローチを提案する。
我々は,包装業界における実世界のマルチラベル予測問題に対するアプローチを検証した。
論文 参考訳(メタデータ) (2022-08-08T15:58:39Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - Towards Generalized and Incremental Few-Shot Object Detection [9.033533653482529]
新規なインクリメンタルFew-Shot Object Detection (iFSOD) 法を提案する。
具体的には、ベースクラスと新規クラスの特徴表現を分離するために、DBF(Double-Branch Framework)を提案する。
我々はPascal VOCとMS-COCOの両方で実験を行い、この手法がインクリメンタル・ショット検出の問題を効果的に解決できることを実証した。
論文 参考訳(メタデータ) (2021-09-23T12:38:09Z) - Class-Incremental Domain Adaptation [56.72064953133832]
私たちは、CIDA(Class-Incremental Domain Adaptation)と呼ばれる実践的ドメイン適応(DA)パラダイムを導入します。
既存のDAメソッドはドメインシフトに取り組むが、新しいターゲットドメインクラスを学ぶのには適さない。
提案手法は,CIDAパラダイムにおけるDAメソッドとCIメソッドの両方と比較して,優れた性能が得られる。
論文 参考訳(メタデータ) (2020-08-04T07:55:03Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。