論文の概要: BenchMD: A Benchmark for Modality-Agnostic Learning on Medical Images
and Sensors
- arxiv url: http://arxiv.org/abs/2304.08486v1
- Date: Mon, 17 Apr 2023 17:59:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 13:53:45.065862
- Title: BenchMD: A Benchmark for Modality-Agnostic Learning on Medical Images
and Sensors
- Title(参考訳): BenchMD:医療画像とセンサのモダリティ非依存学習ベンチマーク
- Authors: Kathryn Wantlin, Chenwei Wu, Shih-Cheng Huang, Oishi Banerjee, Farah
Dadabhoy, Veeral Vipin Mehta, Ryan Wonhee Han, Fang Cao, Raja R. Narayan,
Errol Colak, Adewole Adamson, Laura Heacock, Geoffrey H. Tison, Alex Tamkin,
Pranav Rajpurkar
- Abstract要約: 我々は、アーキテクチャやトレーニング技術を含むモダリティ非依存の手法が、様々な医療タスクでどのように機能するかをテストするベンチマークであるBenchMDを提案する。
BenchMDは、1Dセンサーデータ、2Dイメージ、3Dスキャンを含む7つの医療モダリティのための19の公開データセットを組み合わせている。
以上の結果から,モダリティ非依存の手法が全てのモダリティに対して高い性能を達成することはなく,ベンチマークに十分な改善の余地が残されていることが示唆された。
- 参考スコア(独自算出の注目度): 8.695342954247606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical data poses a daunting challenge for AI algorithms: it exists in many
different modalities, experiences frequent distribution shifts, and suffers
from a scarcity of examples and labels. Recent advances, including transformers
and self-supervised learning, promise a more universal approach that can be
applied flexibly across these diverse conditions. To measure and drive progress
in this direction, we present BenchMD: a benchmark that tests how
modality-agnostic methods, including architectures and training techniques
(e.g. self-supervised learning, ImageNet pretraining), perform on a diverse
array of clinically-relevant medical tasks. BenchMD combines 19 publicly
available datasets for 7 medical modalities, including 1D sensor data, 2D
images, and 3D volumetric scans. Our benchmark reflects real-world data
constraints by evaluating methods across a range of dataset sizes, including
challenging few-shot settings that incentivize the use of pretraining. Finally,
we evaluate performance on out-of-distribution data collected at different
hospitals than the training data, representing naturally-occurring distribution
shifts that frequently degrade the performance of medical AI models. Our
baseline results demonstrate that no modality-agnostic technique achieves
strong performance across all modalities, leaving ample room for improvement on
the benchmark. Code is released at https://github.com/rajpurkarlab/BenchMD .
- Abstract(参考訳): 医療データは、aiアルゴリズムにとって厄介な課題である:それは多くの異なるモダリティに存在し、頻繁な分散シフトを経験し、サンプルやラベルの不足に苦しむ。
トランスフォーマーや自己教師付き学習を含む最近の進歩は、これらの多様な条件に柔軟に適用可能な、より普遍的なアプローチを約束している。
この方向の進捗を計測し、推進するために、アーキテクチャやトレーニング技術(例えば、自己教師付き学習、ImageNet事前学習)を含むモダリティ非依存の手法が、様々な臨床関連医療タスクでどのように機能するかをテストするベンチマークであるBenchMDを提案する。
BenchMDは、1Dセンサーデータ、2Dイメージ、3Dボリュームスキャンを含む7つの医療モードのための19の公開データセットを組み合わせている。
このベンチマークは、プリトレーニングの使用をインセンティブとする少数の設定を含む、さまざまなデータセットサイズにわたるメソッドを評価することによって、実世界のデータ制約を反映しています。
最後に,医療用aiモデルの性能を頻繁に低下させる自然に発生する分布変化を表現し,各病院で収集した分散データの性能をトレーニングデータより評価する。
その結果, モダリティに依存しない手法が全てのモダリティに対して高い性能を達成できないことが示され, ベンチマークに十分な改善の余地が残されている。
コードはhttps://github.com/rajpurkarlab/benchmdでリリースされる。
関連論文リスト
- MIST: A Simple and Scalable End-To-End 3D Medical Imaging Segmentation Framework [1.4043931310479378]
医用イメージングツールキット(MIST)は、深層学習に基づく医用イメージングセグメンテーション手法の一貫性のあるトレーニング、テスト、評価を容易にするように設計されている。
MISTはデータ分析、前処理、評価パイプラインを標準化し、複数のアーキテクチャと損失関数を収容する。
論文 参考訳(メタデータ) (2024-07-31T05:17:31Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Continual Self-supervised Learning: Towards Universal Multi-modal
Medical Data Representation Learning [36.33882718631217]
自己教師付き学習は、医用画像解析のための効率的な事前学習方法である。
マルチモーダル医療データに対する継続的自己教師型学習手法であるMedCoSSを提案する。
我々は、大規模マルチモーダルなラベルなしデータセット上で、継続的自己教師付き事前学習を行う。
論文 参考訳(メタデータ) (2023-11-29T12:47:42Z) - Tackling the Incomplete Annotation Issue in Universal Lesion Detection
Task By Exploratory Training [10.627977735890191]
複数の臓器の病変を医用画像上で検出することを目的としているため、ユニバーサル病変検出は臨床実践に非常に有用である。
ディープラーニング手法は有望な結果を示しているが、トレーニングには大量の注釈付きデータを必要とする。
そこで,教師の予測と不完全なアノテーションを組み合わせることで,学生の学習を指導する教師学生検出モデルを提案する。
論文 参考訳(メタデータ) (2023-09-23T08:44:07Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - CheXstray: Real-time Multi-Modal Data Concordance for Drift Detection in
Medical Imaging AI [1.359138408203412]
医用画像AIドリフトモニタリングワークフローを構築してテストし、同時代の地上真実なしにデータとモデルドリフトを追跡する。
主な貢献は,(1)VAEおよび領域特異的統計手法を含む医用画像ドリフト検出のための概念実証である。
この研究は、動的医療環境における継続的医療画像AIモデルモニタリングに関連する翻訳ギャップに対処するために重要な意味を持つ。
論文 参考訳(メタデータ) (2022-02-06T18:58:35Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。