論文の概要: The unreasonable effectiveness of Batch-Norm statistics in addressing
catastrophic forgetting across medical institutions
- arxiv url: http://arxiv.org/abs/2011.08096v1
- Date: Mon, 16 Nov 2020 16:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 00:40:54.405507
- Title: The unreasonable effectiveness of Batch-Norm statistics in addressing
catastrophic forgetting across medical institutions
- Title(参考訳): 医療機関全体での破滅的忘れに対処するバッチノーム統計の理不尽な効果
- Authors: Sharut Gupta, Praveer Singh, Ken Chang, Mehak Aggarwal, Nishanth Arun,
Liangqiong Qu, Katharina Hoebel, Jay Patel, Mishka Gidwani, Ashwin Vaswani,
Daniel L Rubin and Jayashree Kalpathy-Cramer
- Abstract要約: モデル改良と事前学習した知識の保持のトレードオフについて検討する。
本稿では,従来のデータセットのグローバルバッチ正規化統計値を用いて,弾性重み付け(EWC)を適応する,単純で効果的な手法を提案する。
- 参考スコア(独自算出の注目度): 8.244654685687054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model brittleness is a primary concern when deploying deep learning models in
medical settings owing to inter-institution variations, like patient
demographics and intra-institution variation, such as multiple scanner types.
While simply training on the combined datasets is fraught with data privacy
limitations, fine-tuning the model on subsequent institutions after training it
on the original institution results in a decrease in performance on the
original dataset, a phenomenon called catastrophic forgetting. In this paper,
we investigate trade-off between model refinement and retention of previously
learned knowledge and subsequently address catastrophic forgetting for the
assessment of mammographic breast density. More specifically, we propose a
simple yet effective approach, adapting Elastic weight consolidation (EWC)
using the global batch normalization (BN) statistics of the original dataset.
The results of this study provide guidance for the deployment of clinical deep
learning models where continuous learning is needed for domain expansion.
- Abstract(参考訳): モデルの脆さは、患者の人口動態や複数のスキャナータイプのような施設内変異といった、施設間変異による医療環境におけるディープラーニングモデルの展開において、主要な関心事である。
組み合わせたデータセットのトレーニングにはデータプライバシの制限が伴うが、元の機関でトレーニングした後、後の機関でモデルを微調整すると、元のデータセットのパフォーマンスが低下する。
本稿では, モデル改良と事前学習知識の保持のトレードオフについて検討し, その後, 乳房の乳房密度評価のための破滅的な忘れ込みに対処する。
具体的には、従来のデータセットのグローバルバッチ正規化(BN)統計を用いて、弾性重み付け(EWC)を適応する、単純で効果的なアプローチを提案する。
本研究は, ドメイン拡張に継続的学習を必要とする臨床ディープラーニングモデルの展開のためのガイダンスを提供する。
関連論文リスト
- Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Incremental Learning for Heterogeneous Structure Segmentation in Brain
Tumor MRI [11.314017805825685]
本稿では,従来のタスクと新しいタスクを分離するために,バランスの取れた剛性と可塑性分岐を有する分散型二重フローモジュールを提案する。
標的領域を連続的に変化させる脳腫瘍セグメンテーションタスクの枠組みについて検討した。
論文 参考訳(メタデータ) (2023-05-30T20:39:03Z) - Density-Aware Personalized Training for Risk Prediction in Imbalanced
Medical Data [89.79617468457393]
不均衡率(クラス密度差)のトレーニングモデルは、最適以下の予測につながる可能性がある。
この不均衡問題に対するモデルトレーニングのためのフレームワークを提案する。
実世界の医療データセットにおけるモデルの性能向上を実証する。
論文 参考訳(メタデータ) (2022-07-23T00:39:53Z) - BSM loss: A superior way in modeling aleatory uncertainty of
fine_grained classification [0.0]
混合データ拡張戦略を用いた改良型ブートストラップ損失(BS損失)関数を提案する。
実験の結果,Mixup(BSM)モデルによるBS損失は,標準データ拡張と比較して予測誤差(ECE)を半減できることがわかった。
BSMモデルはドメイン外のデータのセマンティックな距離を知覚することができ、実際の臨床実践において高い可能性を示す。
論文 参考訳(メタデータ) (2022-06-09T13:06:51Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - About Explicit Variance Minimization: Training Neural Networks for
Medical Imaging With Limited Data Annotations [2.3204178451683264]
VAT(Variance Aware Training)法は、モデル損失関数に分散誤差を導入することにより、この特性を利用する。
多様な領域から得られた3つの医用画像データセットと様々な学習目標に対するVATの有効性を検証した。
論文 参考訳(メタデータ) (2021-05-28T21:34:04Z) - Addressing catastrophic forgetting for medical domain expansion [9.720534481714953]
モデル脆性は、ディープラーニングモデルを現実世界の医療環境にデプロイする際に重要な関心事です。
ある機関で高い性能を持つモデルは、他の機関での試験で性能が著しく低下する可能性がある。
バッチ正規化統計の変調と組み合わせ、弾力性のある重量統合に基づく破滅的な忘れ物対策手法を開発しています。
論文 参考訳(メタデータ) (2021-03-24T22:33:38Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Multi-site fMRI Analysis Using Privacy-preserving Federated Learning and
Domain Adaptation: ABIDE Results [13.615292855384729]
高品質なディープラーニングモデルを訓練するには,大量の患者情報を集める必要がある。
患者データのプライバシを保護する必要があるため、複数の機関から中央データベースを組み立てることは困難である。
フェデレート・ラーニング(Federated Learning)は、エンティティのデータを集中化せずに、人口レベルのモデルをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2020-01-16T04:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。