論文の概要: MedNet: Pre-trained Convolutional Neural Network Model for the Medical
Imaging Tasks
- arxiv url: http://arxiv.org/abs/2110.06512v1
- Date: Wed, 13 Oct 2021 05:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 00:20:31.432234
- Title: MedNet: Pre-trained Convolutional Neural Network Model for the Medical
Imaging Tasks
- Title(参考訳): MedNet:医療画像タスクのための事前訓練型畳み込みニューラルネットワークモデル
- Authors: Laith Alzubaidi, J. Santamar\'ia, Mohamed Manoufali, Beadaa Mohammed,
Mohammed A. Fadhel, Jinglan Zhang, Ali H.Al-Timemy, Omran Al-Shamma, and Ye
Duan
- Abstract要約: 医用画像の分野では、ディープラーニングモデルを適切に訓練するのに十分なデータが不足している。
我々はMedNetと呼ばれる医療画像の分類タスクに対処するための新しいDLモデルを提案する。
- 参考スコア(独自算出の注目度): 3.589899343303702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) requires a large amount of training data to provide
quality outcomes. However, the field of medical imaging suffers from the lack
of sufficient data for properly training DL models because medical images
require manual labelling carried out by clinical experts thus the process is
time-consuming, expensive, and error-prone. Recently, transfer learning (TL)
was introduced to reduce the need for the annotation procedure by means of
transferring the knowledge performed by a previous task and then fine-tuning
the result using a relatively small dataset. Nowadays, multiple classification
methods from medical imaging make use of TL from general-purpose pre-trained
models, e.g., ImageNet, which has been proven to be ineffective due to the
mismatch between the features learned from natural images (ImageNet) and those
more specific from medical images especially medical gray images such as
X-rays. ImageNet does not have grayscale images such as MRI, CT, and X-ray. In
this paper, we propose a novel DL model to be used for addressing
classification tasks of medical imaging, called MedNet. To do so, we aim to
issue two versions of MedNet. The first one is Gray-MedNet which will be
trained on 3M publicly available gray-scale medical images including MRI, CT,
X-ray, ultrasound, and PET. The second version is Color-MedNet which will be
trained on 3M publicly available color medical images including histopathology,
taken images, and many others. To validate the effectiveness MedNet, both
versions will be fine-tuned to train on the target tasks of a more reduced set
of medical images. MedNet performs as the pre-trained model to tackle any
real-world application from medical imaging and achieve the level of
generalization needed for dealing with medical imaging tasks, e.g.
classification. MedNet would serve the research community as a baseline for
future research.
- Abstract(参考訳): ディープラーニング(DL)は、品質を提供するために大量のトレーニングデータを必要とします。
しかし、医療画像は臨床専門家による手作業によるラベル付けを必要とするため、適切なdlモデルの訓練に十分なデータが不足しているため、このプロセスは時間がかかり、費用がかかり、エラーが発生しやすい。
近年,前タスクの知識を転送し,比較的小さなデータセットを用いて結果を微調整することで,アノテーション手続きの必要性を低減すべく,トランスファーラーニング(tl)が導入された。
近年、医用画像からの複数の分類法では、自然画像(imagenet)から得られた特徴と医療画像、特にx線などの医用グレー画像とのミスマッチにより有効ではないことが証明されたimagenetなどの汎用事前学習モデルからのtlが使用されている。
ImageNetにはMRI、CT、X線のようなグレースケールの画像がない。
本稿では,mednetと呼ばれる医用画像の分類課題に対処するための新しいdlモデルを提案する。
そのため、我々はMedNetの2つのバージョンを発行することを目指している。
ひとつはGray-MedNetで、MRI、CT、X線、超音波、PETなどの3Mの医用画像でトレーニングされる。
2番目のバージョンはColor-MedNetで、病理、撮影画像など3Mの公開カラー医療画像でトレーニングされる。
MedNetの有効性を検証するために、両方のバージョンは、より縮小された医療画像のターゲットタスクをトレーニングするために微調整される。
MedNetは、医療画像から現実のアプリケーションに取り組むための事前訓練モデルとして機能し、例えば分類などの医療画像処理に必要な一般化レベルを達成する。
MedNetは将来の研究のベースラインとして研究コミュニティに貢献する。
関連論文リスト
- MedMAE: A Self-Supervised Backbone for Medical Imaging Tasks [3.1296917941367686]
本稿では,Masked Autoencoderと呼ばれる自己教師付き学習技術を用いて,医療画像の大規模未ラベルデータセットとバックボーンを事前訓練する。
このバックボーンは、様々な種類の医療画像の視覚的表現を学ぶために訓練されるため、あらゆる医療画像タスクの事前訓練されたモデルとして使用することができる。
論文 参考訳(メタデータ) (2024-07-20T07:29:04Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - A Systematic Benchmarking Analysis of Transfer Learning for Medical
Image Analysis [7.339428207644444]
我々は,最新の大規模きめ細かいデータセットであるiNat2021で事前訓練されたモデルの転送可能性について,系統的研究を行った。
本稿では,医用画像上のイメージネットモデルを継続的に(事前学習)することにより,自然画像と医用画像の領域ギャップを埋める実践的アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T19:08:34Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Self-Supervision with Superpixels: Training Few-shot Medical Image
Segmentation without Annotation [12.47837000630753]
ほとんどショットのセマンティックセグメンテーションは医療画像の応用に大きな可能性を秘めている。
既存のFSS技術の多くは、トレーニングのために豊富な注釈付きセマンティッククラスを必要とする。
本稿では,医用画像に対する自己監督型FSSフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T04:46:33Z) - Universal Model for Multi-Domain Medical Image Retrieval [88.67940265012638]
医用画像検索(MIR)は、医師が類似した患者のデータを素早く見つけるのに役立つ。
MIRはデジタル画像モダリティの多用により、ますます役に立ちつつある。
しかし、病院における様々なデジタル画像モダリティの人気もまた、MIRにいくつかの課題をもたらしている。
論文 参考訳(メタデータ) (2020-07-14T23:22:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。