論文の概要: Rethinking model prototyping through the MedMNIST+ dataset collection
- arxiv url: http://arxiv.org/abs/2404.15786v3
- Date: Mon, 17 Mar 2025 12:01:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:32:55.360350
- Title: Rethinking model prototyping through the MedMNIST+ dataset collection
- Title(参考訳): MedMNIST+データセット収集によるモデルプロトタイピングの再考
- Authors: Sebastian Doerrich, Francesco Di Salvo, Julius Brockmann, Christian Ledig,
- Abstract要約: この作業では、MedMNIST+データセットコレクションの包括的なベンチマークを導入する。
我々は、一般的なCNN(Convolutional Neural Networks)とViT(Vision Transformer)アーキテクチャを、異なる医療データセットにわたって再評価する。
この結果から,計算効率のよいトレーニングスキームと最新の基礎モデルが,エンドツーエンドのトレーニングに有効な代替手段を提供する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.11999555634662634
- License:
- Abstract: The integration of deep learning based systems in clinical practice is often impeded by challenges rooted in limited and heterogeneous medical datasets. In addition, the field has increasingly prioritized marginal performance gains on a few, narrowly scoped benchmarks over clinical applicability, slowing down meaningful algorithmic progress. This trend often results in excessive fine-tuning of existing methods on selected datasets rather than fostering clinically relevant innovations. In response, this work introduces a comprehensive benchmark for the MedMNIST+ dataset collection, designed to diversify the evaluation landscape across several imaging modalities, anatomical regions, classification tasks and sample sizes. We systematically reassess commonly used Convolutional Neural Networks (CNNs) and Vision Transformer (ViT) architectures across distinct medical datasets, training methodologies, and input resolutions to validate and refine existing assumptions about model effectiveness and development. Our findings suggest that computationally efficient training schemes and modern foundation models offer viable alternatives to costly end-to-end training. Additionally, we observe that higher image resolutions do not consistently improve performance beyond a certain threshold. This highlights the potential benefits of using lower resolutions, particularly in prototyping stages, to reduce computational demands without sacrificing accuracy. Notably, our analysis reaffirms the competitiveness of CNNs compared to ViTs, emphasizing the importance of comprehending the intrinsic capabilities of different architectures. Finally, by establishing a standardized evaluation framework, we aim to enhance transparency, reproducibility, and comparability within the MedMNIST+ dataset collection. Code is available at https://github.com/sdoerrich97/rethinking-model-prototyping-MedMNISTPlus .
- Abstract(参考訳): 臨床実践におけるディープラーニングベースのシステムの統合は、制限された異種医学データセットに根ざした課題によってしばしば妨げられる。
さらに、この分野では、臨床応用性よりも狭い範囲のベンチマークで、限界的なパフォーマンス向上を優先し、有意義なアルゴリズムの進歩を遅らせている。
この傾向は、臨床的に関連する革新を育むよりも、選択したデータセット上で既存の手法を過度に微調整することにつながることが多い。
これに応えて、この研究はMedMNIST+データセット収集のための包括的なベンチマークを導入し、いくつかの画像モダリティ、解剖学的領域、分類タスク、サンプルサイズで評価環境を多様化するように設計された。
我々は、モデルの有効性と開発に関する既存の仮定を検証するために、異なる医学データセット、トレーニング方法論、入力解像度をまたいだ、一般的なConvolutional Neural Networks (CNN) と Vision Transformer (ViT) アーキテクチャを体系的に再評価した。
この結果から,計算効率のよいトレーニングスキームと最新の基礎モデルが,エンドツーエンドのトレーニングに有効な代替手段を提供する可能性が示唆された。
さらに,画像の高解像度化が一定のしきい値を超えて常に性能を向上するわけではないことも確認した。
これは低解像度、特にプロトタイピングの段階で、精度を犠牲にすることなく計算要求を減らすことの潜在的な利点を強調している。
特に,本分析では,異なるアーキテクチャの本質的な能力を理解することの重要性を強調し,VITと比較してCNNの競争力を再確認する。
最後に、標準化された評価フレームワークを確立することにより、MedMNIST+データセットコレクション内の透明性、再現性、コンパラビリティを高めることを目指す。
コードはhttps://github.com/sdoerrich97/rethinking-model-prototyping-MedMNISTPlusで入手できる。
関連論文リスト
- Efficient MedSAMs: Segment Anything in Medical Images on Laptop [69.28565867103542]
我々は,迅速な医用画像のセグメンテーションに特化した初の国際コンペを組織した。
トップチームは軽量なセグメンテーション基盤モデルを開発し、効率的な推論パイプラインを実装した。
最高のパフォーマンスのアルゴリズムは、臨床導入を促進するために、ユーザフレンドリーなインターフェースを備えたオープンソースソフトウェアに組み込まれている。
論文 参考訳(メタデータ) (2024-12-20T17:33:35Z) - LoRKD: Low-Rank Knowledge Decomposition for Medical Foundation Models [59.961172635689664]
知識分解」は、特定の医療課題のパフォーマンス向上を目的としている。
我々はLow-Rank Knowledge Decomposition(LoRKD)という新しいフレームワークを提案する。
LoRKDは、低ランクのエキスパートモジュールと効率的な知識分離畳み込みを組み込むことで、グラデーションを異なるタスクから明確に分離する。
論文 参考訳(メタデータ) (2024-09-29T03:56:21Z) - How Deep is your Guess? A Fresh Perspective on Deep Learning for Medical Time-Series Imputation [6.547981908229007]
アーキテクチャとフレームワークのバイアスがモデルのパフォーマンスにどのように影響するかを示します。
実験では、プリプロセッシングと実装の選択に基づいて、最大20%の性能変化を示す。
我々は,現在の深層計算法と医療要件の相違点を同定する。
論文 参考訳(メタデータ) (2024-07-11T12:33:28Z) - MedMNIST-C: Comprehensive benchmark and improved classifier robustness by simulating realistic image corruptions [0.13108652488669734]
神経ネットワークに基づくシステムの臨床実践への統合は、ドメインの一般化と堅牢性に関連する課題によって制限される。
我々は、12のデータセットと9つの画像モダリティをカバーするMedMNIST+コレクションに基づくベンチマークデータセットであるMedMNIST-Cを作成し、オープンソース化した。
論文 参考訳(メタデータ) (2024-06-25T13:20:39Z) - Benchmarking Retinal Blood Vessel Segmentation Models for Cross-Dataset and Cross-Disease Generalization [5.237321836999284]
公開されているFIVESファウンダスイメージデータセット上で,5つの公開モデルをトレーニングし,評価する。
画像の品質がセグメンテーションの結果を決定する重要な要因であることがわかった。
論文 参考訳(メタデータ) (2024-06-21T09:12:34Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Robustly Pre-trained Neural Model for Direct Temporal Relation
Extraction [10.832917897850361]
BERT (Bidirectional Representation using Transformer) のいくつかの変種について検討した。
2012 i2b2 時間関係課題データセットのセマンティックな部分集合である直接時間関係データセットを用いて,これらの手法の評価を行った。
結果: 10倍のコーパスを含む事前学習戦略を取り入れたRoBERTaは,F値の絶対スコア(1.00スケール)を0.0864改善し,SVMモデルで達成した従来の最先端性能と比較して誤差率を24%低減した。
論文 参考訳(メタデータ) (2020-04-13T22:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。