論文の概要: medigan: A Python Library of Pretrained Generative Models for Enriched
Data Access in Medical Imaging
- arxiv url: http://arxiv.org/abs/2209.14472v1
- Date: Wed, 28 Sep 2022 23:45:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 16:54:50.145384
- Title: medigan: A Python Library of Pretrained Generative Models for Enriched
Data Access in Medical Imaging
- Title(参考訳): medigan: 医用画像におけるリッチデータアクセスのための事前訓練された生成モデルのPythonライブラリ
- Authors: Richard Osuala, Grzegorz Skorupko, Noussair Lazrak, Lidia Garrucho,
Eloy Garc\'ia, Smriti Joshi, Socayna Jouide, Michael Rutherford, Fred Prior,
Kaisar Kushibar, Oliver Diaz, Karim Lekadir
- Abstract要約: mediganは、オープンソースのフレームワークに依存しないPythonライブラリとして実装された、事前訓練された生成モデルのワンストップショップである。
研究者や開発者は、ほんの数行のコードでトレーニングデータを作成し、拡大し、ドメインに適応することができる。
ライブラリのスケーラビリティと設計は、統合され、容易に利用できる事前訓練された生成モデルの増加によって実証される。
- 参考スコア(独自算出の注目度): 3.8568465270960264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic data generated by generative models can enhance the performance and
capabilities of data-hungry deep learning models in medical imaging. However,
there is (1) limited availability of (synthetic) datasets and (2) generative
models are complex to train, which hinders their adoption in research and
clinical applications. To reduce this entry barrier, we propose medigan, a
one-stop shop for pretrained generative models implemented as an open-source
framework-agnostic Python library. medigan allows researchers and developers to
create, increase, and domain-adapt their training data in just a few lines of
code. Guided by design decisions based on gathered end-user requirements, we
implement medigan based on modular components for generative model (i)
execution, (ii) visualisation, (iii) search & ranking, and (iv) contribution.
The library's scalability and design is demonstrated by its growing number of
integrated and readily-usable pretrained generative models consisting of 21
models utilising 9 different Generative Adversarial Network architectures
trained on 11 datasets from 4 domains, namely, mammography, endoscopy, x-ray,
and MRI. Furthermore, 3 applications of medigan are analysed in this work,
which include (a) enabling community-wide sharing of restricted data, (b)
investigating generative model evaluation metrics, and (c) improving clinical
downstream tasks. In (b), extending on common medical image synthesis
assessment and reporting standards, we show Fr\'echet Inception Distance
variability based on image normalisation and radiology-specific feature
extraction.
- Abstract(参考訳): 生成モデルによって生成された合成データは、医療画像におけるデータハングリー深層学習モデルの性能と能力を高めることができる。
しかし,(1)(合成)データセットの可用性は限定的であり,(2)生成モデルは訓練に複雑であり,研究や臨床応用への導入を妨げている。
この参入障壁を減らすため、オープンソースフレームワークに依存しないPythonライブラリとして実装された事前学習された生成モデルのためのワンストップショップであるmediganを提案する。
mediganは、研究者や開発者がほんの数行のコードで、トレーニングデータの作成、拡張、ドメイン適応を可能にする。
収集されたエンドユーザー要求に基づく設計決定により、生成モデルのためのモジュラーコンポーネントに基づくメディガンを実装する。
(i)実行
(ii)可視化
(iii)検索・ランキング、及び
(iv) 貢献。
ライブラリのスケーラビリティと設計は、21のモデルで構成され、マンモグラフィ、内視鏡、x線、mriの4つのドメインから11のデータセットでトレーニングされた9つの異なる生成型adversarial networkアーキテクチャを利用する。
さらに,本研究では,メディガンの3つの応用について分析する。
(a)制限されたデータのコミュニティ全体の共有を可能にする。
b)生成モデル評価指標の調査、及び
(c) 臨床下流業務の改善。
院
b) 一般的な医用画像合成評価および報告基準に基づき, 画像正規化と放射線学的特徴抽出に基づくFr'echet Inception Distanceの変動を示す。
関連論文リスト
- Generative AI for Synthetic Data Across Multiple Medical Modalities: A Systematic Review of Recent Developments and Challenges [2.1835659964186087]
本稿では,様々な医療データ型を合成するための生成モデルについて,体系的に検討する。
本研究は、幅広い医療データモダリティを包含し、様々な生成モデルについて検討する。
論文 参考訳(メタデータ) (2024-06-27T14:00:11Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Three-dimensional Bone Image Synthesis with Generative Adversarial
Networks [2.499907423888049]
本研究は,高分解能医用量を生成するために,3次元生成対向ネットワーク(GAN)を効率的に訓練できることを実証する。
GANインバージョンは3次元設定のために実装され、モデル解釈可能性に関する広範な研究に使用される。
論文 参考訳(メタデータ) (2023-10-26T08:08:17Z) - Towards Generalist Foundation Model for Radiology by Leveraging
Web-scale 2D&3D Medical Data [66.9359934608229]
この研究はRadFMと呼ばれるRadlogy Foundation Modelの開発を開始することを目的としている。
われわれの知る限りでは、これは2Dスキャンと3Dスキャンによる、最初の大規模で高品質な医療用ビジュアル言語データセットである。
本稿では,モダリティ認識,疾患診断,視覚的質問応答,レポート生成,合理的診断の5つのタスクからなる新しい評価ベンチマークRadBenchを提案する。
論文 参考訳(メタデータ) (2023-08-04T17:00:38Z) - Generative AI for Medical Imaging: extending the MONAI Framework [29.152928147704507]
我々は、研究者や開発者が生成モデルを簡単に訓練し、評価し、デプロイできるオープンソースプラットフォームであるMONAI Generative Modelsを紹介します。
我々のプラットフォームは、異なるアーキテクチャを含む標準化された方法で最先端の研究を再現します。
我々はこれらのモデルを一般化可能な方法で実装し、その結果を2次元または3次元のシナリオに拡張できることを示した。
論文 参考訳(メタデータ) (2023-07-27T21:58:26Z) - DeepMediX: A Deep Learning-Driven Resource-Efficient Medical Diagnosis
Across the Spectrum [15.382184404673389]
この作業では,この課題に大きく対処する,画期的な,リソース効率の高いモデルである textttDeepMediX が紹介されている。
MobileNetV2アーキテクチャ上に構築されたDeepMediXは、脳MRIスキャンと皮膚がん画像の分類に長けている。
DeepMediXの設計にはフェデレートラーニングの概念も含まれている。
論文 参考訳(メタデータ) (2023-07-01T12:30:58Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Competence-based Multimodal Curriculum Learning for Medical Report
Generation [98.10763792453925]
本稿では,コンピテンスベースのマルチモーダルカリキュラム学習フレームワーク(CMCL)を提案する。
具体的には、CMCLは放射線学者の学習過程をシミュレートし、段階的にモデルを最適化する。
パブリックIU-XrayとMIMIC-CXRデータセットの実験は、CMCLを既存のモデルに組み込んでパフォーマンスを向上させることができることを示している。
論文 参考訳(メタデータ) (2022-06-24T08:16:01Z) - Ensemble Transfer Learning for the Prediction of Anti-Cancer Drug
Response [49.86828302591469]
本稿では,抗がん剤感受性の予測にトランスファーラーニングを適用した。
我々は、ソースデータセット上で予測モデルをトレーニングし、ターゲットデータセット上でそれを洗練する古典的な転送学習フレームワークを適用した。
アンサンブル転送学習パイプラインは、LightGBMと異なるアーキテクチャを持つ2つのディープニューラルネットワーク(DNN)モデルを使用して実装されている。
論文 参考訳(メタデータ) (2020-05-13T20:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。