論文の概要: Continual Domain Incremental Learning for Privacy-aware Digital Pathology
- arxiv url: http://arxiv.org/abs/2409.06455v1
- Date: Tue, 10 Sep 2024 12:21:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 17:58:36.565403
- Title: Continual Domain Incremental Learning for Privacy-aware Digital Pathology
- Title(参考訳): プライバシを意識したデジタル病理のための連続的ドメインインクリメンタルラーニング
- Authors: Pratibha Kumari, Daniel Reisenbüchler, Lucas Luttner, Nadine S. Schaadt, Friedrich Feuerhake, Dorit Merhof,
- Abstract要約: 連続学習(CL)技術は、分散シフト条件で新しいデータを学習する際の過去のデータ忘れを減らすことを目的としている。
我々は、過去のデータを格納し、新しいデータで潜在リプレイを行うために、ジェネレーティブ潜在リプレイベースのCL(GLRCL)アプローチを開発する。
- 参考スコア(独自算出の注目度): 3.6630930118966814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, there has been remarkable progress in the field of digital pathology, driven by the ability to model complex tissue patterns using advanced deep-learning algorithms. However, the robustness of these models is often severely compromised in the presence of data shifts (e.g., different stains, organs, centers, etc.). Alternatively, continual learning (CL) techniques aim to reduce the forgetting of past data when learning new data with distributional shift conditions. Specifically, rehearsal-based CL techniques, which store some past data in a buffer and then replay it with new data, have proven effective in medical image analysis tasks. However, privacy concerns arise as these approaches store past data, prompting the development of our novel Generative Latent Replay-based CL (GLRCL) approach. GLRCL captures the previous distribution through Gaussian Mixture Models instead of storing past samples, which are then utilized to generate features and perform latent replay with new data. We systematically evaluate our proposed framework under different shift conditions in histopathology data, including stain and organ shift. Our approach significantly outperforms popular buffer-free CL approaches and performs similarly to rehearsal-based CL approaches that require large buffers causing serious privacy violations.
- Abstract(参考訳): 近年、高度なディープラーニングアルゴリズムを用いて複雑な組織パターンをモデル化する能力によって、デジタル病理学の分野で顕著な進歩を遂げている。
しかしながら、これらのモデルのロバスト性は、データシフト(例えば、異なる染色、臓器、センターなど)の存在において、しばしば深刻な損なわれます。
あるいは、連続学習(CL)技術は、分散シフト条件で新しいデータを学習する際に、過去のデータの忘れを少なくすることを目的としている。
具体的には、過去のデータをバッファに格納し、それを新しいデータで再生するリハーサルベースのCL技術は、医療画像解析タスクに有効であることが証明されている。
しかし、これらのアプローチは過去のデータを保存し、新しいジェネレーティブ・ラテント・リプレイ・ベースのCL(GLRCL)アプローチの開発を促すことでプライバシー上の懸念が生じる。
GLRCLは過去のサンプルを格納する代わりにガウス混合モデルを通じて以前の分布をキャプチャし、機能を生成して新しいデータで遅延再生を行う。
病理組織学的データでは, 染色や臓器のシフトなど, 異なる変化条件下で, 提案する枠組みを体系的に評価した。
提案手法は,バッファフリーなCLアプローチよりも優れており,大きなバッファを必要とするリハーサルベースのCLアプローチと同様に,重大なプライバシー侵害を引き起こす。
関連論文リスト
- TS-ACL: A Time Series Analytic Continual Learning Framework for Privacy-Preserving and Class-Incremental Pattern Recognition [14.6394894445113]
本稿では,TS-ACLと呼ばれる時系列解析連続学習フレームワークを提案する。
解析学習にインスパイアされたTS-ACLは、ニューラルネットワークの更新を勾配のない線形回帰問題に変換する。
我々のフレームワークはリアルタイムアプリケーションや大規模データ処理に非常に適しています。
論文 参考訳(メタデータ) (2024-10-21T12:34:02Z) - Diffusion-Driven Data Replay: A Novel Approach to Combat Forgetting in Federated Class Continual Learning [13.836798036474143]
Federated Class Continual Learningにおける大きな課題は、破滅的な忘れ方だ。
本研究では拡散モデルに基づく新しいデータ再生手法を提案する。
我々の手法は既存のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2024-09-02T10:07:24Z) - CCSI: Continual Class-Specific Impression for Data-free Class Incremental Learning [22.37848405465699]
クラスインクリメンタル学習は、特定の病気クラスで訓練されたディープネットワークを新しい病気に適応することで、有望なソリューションを提供する。
以前に提案された手法では、過去のサンプルを永久に保存する必要がある。
本研究では,従来の学習クラスからのデータストレージの代わりに,学習クラス上でのデータ合成を利用する新しいデータ自由クラスインクリメンタルラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-09T03:52:21Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Detecting Morphing Attacks via Continual Incremental Training [10.796380524798744]
近年の継続学習(CL)パラダイムは,複数のサイトを通したインクリメンタルトレーニングを実現する上で,効果的なソリューションである可能性がある。
本稿では,このシナリオにおける異なる連続学習手法の性能について検討し,可変サイズであっても,新しいデータチャンクが利用できる度に更新される学習モデルをシミュレートする。
実験結果から,特定のCL手法,すなわちLawF(Learning without Forgetting)が最良性能アルゴリズムの1つであることが判明した。
論文 参考訳(メタデータ) (2023-07-27T17:48:29Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - The CLEAR Benchmark: Continual LEArning on Real-World Imagery [77.98377088698984]
連続学習(CL)は、生涯AIにとって重要な課題であると考えられている。
本稿では,視覚概念の自然な時間進化を伴う最初の連続画像分類ベンチマークであるCLEARを紹介する。
単純な教師なし事前学習のステップで、最先端のCLアルゴリズムがすでに強化されていることが分かりました。
論文 参考訳(メタデータ) (2022-01-17T09:09:09Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。