論文の概要: Multi-Site Class-Incremental Learning with Weighted Experts in Echocardiography
- arxiv url: http://arxiv.org/abs/2407.21577v1
- Date: Wed, 31 Jul 2024 13:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 18:02:39.918308
- Title: Multi-Site Class-Incremental Learning with Weighted Experts in Echocardiography
- Title(参考訳): 心エコー図における重度専門家によるマルチサイトクラスインクリメンタルラーニング
- Authors: Kit M. Bransby, Woo-jin Cho Kim, Jorge Oliveira, Alex Thorley, Arian Beqiri, Alberto Gomez, Agisilaos Chartsias,
- Abstract要約: 実生活におけるパフォーマンスを維持するための心エコー図を作成するには、多様な多地点データが必要である。
本稿では,各データセットのエキスパートネットワークを学習するクラスインクリメンタル学習手法を提案する。
複数のサイトから得られた6つのデータセットの検証を行い、ビュー分類性能を改善しながら、トレーニング時間の大幅な短縮を実証した。
- 参考スコア(独自算出の注目度): 1.305420351791698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building an echocardiography view classifier that maintains performance in real-life cases requires diverse multi-site data, and frequent updates with newly available data to mitigate model drift. Simply fine-tuning on new datasets results in "catastrophic forgetting", and cannot adapt to variations of view labels between sites. Alternatively, collecting all data on a single server and re-training may not be feasible as data sharing agreements may restrict image transfer, or datasets may only become available at different times. Furthermore, time and cost associated with re-training grows with every new dataset. We propose a class-incremental learning method which learns an expert network for each dataset, and combines all expert networks with a score fusion model. The influence of ``unqualified experts'' is minimised by weighting each contribution with a learnt in-distribution score. These weights promote transparency as the contribution of each expert is known during inference. Instead of using the original images, we use learned features from each dataset, which are easier to share and raise fewer licensing and privacy concerns. We validate our work on six datasets from multiple sites, demonstrating significant reductions in training time while improving view classification performance.
- Abstract(参考訳): 実生活におけるパフォーマンスを維持するエコー心電図ビュー分類器を構築するには、多様な多地点データが必要であり、モデルドリフトを緩和するためには、新たに利用可能なデータと頻繁な更新が必要である。
新しいデータセットを微調整するだけで「破滅的な忘れ」が起こり、サイト間のビューラベルのバリエーションに適応できない。
あるいは、単一のサーバ上のすべてのデータを収集して再トレーニングすることは、データ共有契約が画像転送を制限する可能性があることや、データセットが異なるタイミングでのみ利用可能になる可能性があるため、実現不可能である。
さらに、再トレーニングに関連する時間とコストは、新しいデータセット毎に増加します。
本稿では,各データセットのエキスパートネットワークを学習し,すべてのエキスパートネットワークとスコア融合モデルを組み合わせたクラスインクリメンタル学習手法を提案する。
「無資格専門家」の影響は、各貢献を学習内分配スコアで重み付けすることで最小化される。
これらの重みは、推論中に各専門家の貢献が知られているため、透明性を促進する。
オリジナルのイメージを使う代わりに、各データセットから学んだ機能を使用します。
複数のサイトから得られた6つのデータセットの検証を行い、ビュー分類性能を改善しながら、トレーニング時間の大幅な短縮を実証した。
関連論文リスト
- From Categories to Classifiers: Name-Only Continual Learning by Exploring the Web [118.67589717634281]
継続的な学習はしばしば、非現実的に時間がかかり、実際にコストがかかるという仮定である、広範な注釈付きデータセットの可用性に依存します。
時間とコストの制約により手動のアノテーションが禁止される、名前のみの連続学習と呼ばれる新しいパラダイムを探求する。
提案手法は,広範かつ進化を続けるインターネットを活用して,未処理のウェブ教師付きデータを検索・ダウンロードして画像分類を行う。
論文 参考訳(メタデータ) (2023-11-19T10:43:43Z) - FaceFusion: Exploiting Full Spectrum of Multiple Datasets [4.438240667468304]
我々はFaceFusionという新しいトレーニング手法を提案する。
ビューを使用して埋め込みネットワークを同時にトレーニングしながら、アイデンティティの衝突によって達成されない、さまざまなデータセットの融合ビューを生成する。
統合データセットの統一ビューを使用することで、組み込みネットワークはデータセットのスペクトル全体に対してトレーニングされ、顕著なパフォーマンス向上につながる。
論文 参考訳(メタデータ) (2023-05-24T00:51:04Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Hierarchical Self-Supervised Learning for Medical Image Segmentation
Based on Multi-Domain Data Aggregation [23.616336382437275]
医用画像分割のための階層型自己監督学習(HSSL)を提案する。
まず、いくつかの医学的課題からデータセットを収集し、自己教師付きでネットワークを事前訓練し、最後にラベル付きデータに微調整します。
スクラッチから学習するのに比べ、新しい手法は様々なタスクにおいてより良いパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2021-07-10T18:17:57Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z) - Adding Seemingly Uninformative Labels Helps in Low Data Regimes [6.953976287091344]
マンモグラフィー画像における腫瘍のセグメンテーションという,専門的アノテーションを必要とする課題について考察する。
低データ設定では、専門家アノテーションと非専門家アノテーションの非形式的なラベルを補完し、タスクをマルチクラス問題にすることで、パフォーマンスを向上させることができることを示す。
論文 参考訳(メタデータ) (2020-07-20T17:38:59Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - DeGAN : Data-Enriching GAN for Retrieving Representative Samples from a
Trained Classifier [58.979104709647295]
我々は、トレーニングされたネットワークの将来の学習タスクのために、利用可能なデータの豊富さと関連するデータの欠如の間のギャップを埋める。
利用可能なデータは、元のトレーニングデータセットまたは関連するドメインデータセットの不均衡なサブセットである可能性があるため、代表サンプルを検索するために使用します。
関連ドメインからのデータを活用して最先端のパフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2019-12-27T02:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。