論文の概要: Rethinking Model Prototyping through the MedMNIST+ Dataset Collection
- arxiv url: http://arxiv.org/abs/2404.15786v1
- Date: Wed, 24 Apr 2024 10:19:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 19:30:27.566738
- Title: Rethinking Model Prototyping through the MedMNIST+ Dataset Collection
- Title(参考訳): MedMNIST+データセットコレクションによるモデルプロトタイピングの再考
- Authors: Sebastian Doerrich, Francesco Di Salvo, Julius Brockmann, Christian Ledig,
- Abstract要約: 本研究は,MedMNIST+データベースに対する評価環境の多様化のためのベンチマークを示す。
我々は、医用画像分類のための共通畳み込みニューラルネットワーク(CNN)とトランスフォーマーベースのアーキテクチャを徹底的に分析する。
この結果から,計算効率のよいトレーニングスキームと最新の基礎モデルは,高額なエンドツーエンドトレーニングとリソース強化アプローチのギャップを埋める上で有望であることが示唆された。
- 参考スコア(独自算出の注目度): 0.11999555634662634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of deep learning based systems in clinical practice is often impeded by challenges rooted in limited and heterogeneous medical datasets. In addition, prioritization of marginal performance improvements on a few, narrowly scoped benchmarks over clinical applicability has slowed down meaningful algorithmic progress. This trend often results in excessive fine-tuning of existing methods to achieve state-of-the-art performance on selected datasets rather than fostering clinically relevant innovations. In response, this work presents a comprehensive benchmark for the MedMNIST+ database to diversify the evaluation landscape and conduct a thorough analysis of common convolutional neural networks (CNNs) and Transformer-based architectures, for medical image classification. Our evaluation encompasses various medical datasets, training methodologies, and input resolutions, aiming to reassess the strengths and limitations of widely used model variants. Our findings suggest that computationally efficient training schemes and modern foundation models hold promise in bridging the gap between expensive end-to-end training and more resource-refined approaches. Additionally, contrary to prevailing assumptions, we observe that higher resolutions may not consistently improve performance beyond a certain threshold, advocating for the use of lower resolutions, particularly in prototyping stages, to expedite processing. Notably, our analysis reaffirms the competitiveness of convolutional models compared to ViT-based architectures emphasizing the importance of comprehending the intrinsic capabilities of different model architectures. Moreover, we hope that our standardized evaluation framework will help enhance transparency, reproducibility, and comparability on the MedMNIST+ dataset collection as well as future research within the field. Code will be released soon.
- Abstract(参考訳): 臨床実践におけるディープラーニングベースのシステムの統合は、制限された異種医学データセットに根ざした課題によってしばしば妨げられる。
さらに、臨床応用性よりも狭い範囲のベンチマークでの限界性能改善の優先順位付けは、有意義なアルゴリズムの進歩を遅らせている。
この傾向は、臨床に関係のある革新を育むのではなく、選択したデータセット上で最先端のパフォーマンスを達成するために既存の手法を過度に微調整する結果をもたらすことが多い。
本研究は、MedMNIST+データベースの総合的なベンチマークを提示し、評価環境の多様化と、医用画像分類のための共通畳み込みニューラルネットワーク(CNN)とトランスフォーマーベースのアーキテクチャの徹底的な分析を行う。
本評価は, 様々な医療データセット, トレーニング手法, 入力解像度を包含し, 広く使用されているモデル変異の強度と限界を再評価することを目的としている。
この結果から,計算効率のよいトレーニングスキームと最新の基礎モデルは,高額なエンドツーエンドトレーニングとリソース強化アプローチのギャップを埋める上で有望であることが示唆された。
さらに、一般的な仮定とは対照的に、高分解能は一定のしきい値を超えるパフォーマンスを一貫して改善することはなく、特にプロトタイピング段階における低分解能の使用を優先して処理を高速化する。
特に,本研究では,異なるモデルアーキテクチャの本質的な能力を理解することの重要性を強調したViTベースのアーキテクチャと比較して,畳み込みモデルの競争性を再確認する。
さらに、我々の標準化された評価フレームワークは、MedMNIST+データセットコレクションの透明性、再現性、コンパラビリティの向上と、この分野における今後の研究に役立つことを期待しています。
コードはまもなくリリースされる。
関連論文リスト
- Meta Transfer of Self-Supervised Knowledge: Foundation Model in Action
for Post-Traumatic Epilepsy Prediction [0.6291443816903801]
基礎モデルに新たなトレーニング戦略を導入する。
提案手法は,小規模臨床データセットのタスク性能を著しく向上することを示す。
さらに, 基礎モデルの一般化性の向上を実証した。
論文 参考訳(メタデータ) (2023-12-21T07:42:49Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Deployment of Image Analysis Algorithms under Prevalence Shifts [6.373765910269204]
領域ギャップは、医療画像解析のための機械学習(ML)ベースのソリューションの臨床的翻訳において、最も関連する障害の一つである。
そこで本研究では,トレーニング済みの分類器を新しい環境に適応させるために,推定したデプロイメントの頻度を利用して精度の高い画像分類を行うワークフローを提案する。
論文 参考訳(メタデータ) (2023-03-22T13:16:37Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - ROOD-MRI: Benchmarking the robustness of deep learning segmentation
models to out-of-distribution and corrupted data in MRI [0.4839993770067469]
ROOD-MRIは、ディープ人工知能ニューラルネットワークの堅牢性をMRIデータ、破損、アーティファクトにベンチマークするプラットフォームである。
いくつかの大規模研究において,海馬,心室,白質の超強度セグメンテーションに本手法を適用した。
データ拡張戦略は解剖学的セグメンテーションタスクのOODデータに対するロバスト性を大幅に向上させることができるが、最近のDNNでは、より困難な病変ベースのセグメンテーションタスクではロバスト性に欠ける。
論文 参考訳(メタデータ) (2022-03-11T16:34:15Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Concept-based model explanations for Electronic Health Records [1.6837409766909865]
概念活性化ベクトル(TCAV)を用いたテストは、人間に理解可能な説明を提供する手段として最近導入された。
本手法を時系列データに拡張し,TCAVの適用をEHRの逐次予測に適用する。
論文 参考訳(メタデータ) (2020-12-03T22:18:24Z) - Robustly Pre-trained Neural Model for Direct Temporal Relation
Extraction [10.832917897850361]
BERT (Bidirectional Representation using Transformer) のいくつかの変種について検討した。
2012 i2b2 時間関係課題データセットのセマンティックな部分集合である直接時間関係データセットを用いて,これらの手法の評価を行った。
結果: 10倍のコーパスを含む事前学習戦略を取り入れたRoBERTaは,F値の絶対スコア(1.00スケール)を0.0864改善し,SVMモデルで達成した従来の最先端性能と比較して誤差率を24%低減した。
論文 参考訳(メタデータ) (2020-04-13T22:01:38Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。