論文の概要: ivadomed: A Medical Imaging Deep Learning Toolbox
- arxiv url: http://arxiv.org/abs/2010.09984v1
- Date: Tue, 20 Oct 2020 03:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 07:41:00.902990
- Title: ivadomed: A Medical Imaging Deep Learning Toolbox
- Title(参考訳): ivadomed: 医療画像のディープラーニングツールボックス
- Authors: Charley Gros, Andreanne Lemay, Olivier Vincent, Lucas Rouhier, Anthime
Bucquet, Joseph Paul Cohen, Julien Cohen-Adad
- Abstract要約: ivadomedは、ディープラーニングモデルを設計、エンドツーエンドのトレーニング、評価するためのオープンソースのPythonパッケージである。
パッケージにはAPI、コマンドラインツール、ドキュメント、チュートリアルが含まれている。
- 参考スコア(独自算出の注目度): 3.6064670806006647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ivadomed is an open-source Python package for designing, end-to-end training,
and evaluating deep learning models applied to medical imaging data. The
package includes APIs, command-line tools, documentation, and tutorials.
ivadomed also includes pre-trained models such as spinal tumor segmentation and
vertebral labeling. Original features of ivadomed include a data loader that
can parse image metadata (e.g., acquisition parameters, image contrast,
resolution) and subject metadata (e.g., pathology, age, sex) for custom data
splitting or extra information during training and evaluation. Any dataset
following the Brain Imaging Data Structure (BIDS) convention will be compatible
with ivadomed without the need to manually organize the data, which is
typically a tedious task. Beyond the traditional deep learning methods,
ivadomed features cutting-edge architectures, such as FiLM and HeMis, as well
as various uncertainty estimation methods (aleatoric and epistemic), and losses
adapted to imbalanced classes and non-binary predictions. Each step is
conveniently configurable via a single file. At the same time, the code is
highly modular to allow addition/modification of an architecture or
pre/post-processing steps. Example applications of ivadomed include MRI object
detection, segmentation, and labeling of anatomical and pathological
structures. Overall, ivadomed enables easy and quick exploration of the latest
advances in deep learning for medical imaging applications. ivadomed's main
project page is available at https://ivadomed.org.
- Abstract(参考訳): ivadomedは、医療画像データに適用されたディープラーニングモデルの設計、エンドツーエンドトレーニング、評価のためのオープンソースのPythonパッケージである。
パッケージにはAPI、コマンドラインツール、ドキュメント、チュートリアルが含まれている。
ivadomedはまた、脊髄腫瘍セグメンテーションや脊椎ラベリングなどの訓練済みモデルも含む。
ivadomedの本来の特徴は、画像メタデータ(例えば、取得パラメータ、画像コントラスト、解像度)を解析できるデータローダと、カスタムデータ分割やトレーニングや評価中の追加情報のための主題メタデータ(例えば、病理学、年齢、性別)である。
脳イメージングデータ構造(bids)の規約に従うデータセットは、手作業でデータを整理する必要なしに、ivadomedと互換性がある。
従来のディープラーニング手法以外にも、FiLMやHeMisといった最先端のアーキテクチャや、さまざまな不確実性推定手法(聴診器やてんかん)、不均衡なクラスや非バイナリ予測に適応した損失などがある。
各ステップは、単一のファイルで簡単に設定できる。
同時に、コードは高度にモジュール化されており、アーキテクチャの追加/修正や前/後処理のステップを可能にします。
ivadomedの例としては、MRIオブジェクトの検出、セグメンテーション、解剖学的および病理学的構造のラベル付けなどがある。
総じてivadomedは、医療画像アプリケーションにおけるディープラーニングの最新進歩を、簡単かつ迅速に探究できる。
ivadomedのメインプロジェクトページはhttps://ivadomed.org.com/で見ることができる。
関連論文リスト
- HICH Image/Text (HICH-IT): Comprehensive Text and Image Datasets for
Hypertensive Intracerebral Hemorrhage Research [12.479936404475803]
高血圧性脳内出血(HICH)の医学領域にHICH-ITと呼ばれる新しいデータセットを導入する。
このデータセットは、HICHの診断と治療における人工知能の精度を高めるように設計されている。
論文 参考訳(メタデータ) (2024-01-29T07:44:09Z) - MedShapeNet -- A Large-Scale Dataset of 3D Medical Shapes for Computer
Vision [119.29105800342779]
MedShapeNetは、医療アプリケーションへのデータ駆動ビジョンアルゴリズムの翻訳を容易にするために開発された。
ユニークな特徴として、実際の患者の画像データに基づいて、形状の大部分を直接モデル化する。
私たちのデータは、WebインターフェースとPythonアプリケーションプログラミングインターフェース(API)を介して自由にアクセスでき、差別的、再構成的、変動的なベンチマークに使用できます。
論文 参考訳(メタデータ) (2023-08-30T16:52:20Z) - Self-Supervised Pre-Training with Contrastive and Masked Autoencoder
Methods for Dealing with Small Datasets in Deep Learning for Medical Imaging [8.34398674359296]
医用画像の深層学習は、診断ミスのリスクを最小限に抑え、放射線医の作業量を減らし、診断を加速する可能性がある。
このようなディープラーニングモデルのトレーニングには,すべてのトレーニングサンプルに対するアノテーションを備えた,大規模かつ正確なデータセットが必要です。
この課題に対処するために、ディープラーニングモデルは、自己教師付き学習の分野からのメソッドを使用してアノテーションなしで、大規模な画像データセット上で事前トレーニングすることができる。
論文 参考訳(メタデータ) (2023-08-12T11:31:01Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - ClamNet: Using contrastive learning with variable depth Unets for
medical image segmentation [0.0]
ユニッツは、完全な畳み込みネットワーク(FCN)とともに、医療画像のセマンティックセグメンテーションの標準手法となった。
Unet++は、UnetとFCNが直面している問題のいくつかを解決するために、Unetの亜種として導入された。
医用画像のセマンティックセグメンテーションにUnet++を訓練するために, コントラスト学習を用いる。
論文 参考訳(メタデータ) (2022-06-10T16:55:45Z) - Self Pre-training with Masked Autoencoders for Medical Image
Classification and Segmentation [37.25161294917211]
Masked Autoencoder (MAE) は自然画像解析のための事前学習型視覚変換器 (ViT) に有効であることが示されている。
医用画像解析タスクにおけるMAEを用いた自己事前学習パラダイムについて検討する。
論文 参考訳(メタデータ) (2022-03-10T16:22:38Z) - MedMNIST v2: A Large-Scale Lightweight Benchmark for 2D and 3D
Biomedical Image Classification [59.10015984688104]
MedMNIST v2は、MNISTに似た大規模データセットコレクションである。
得られたデータセットは708,069個の2D画像と10,214個の3D画像で構成されている。
論文 参考訳(メタデータ) (2021-10-27T22:02:04Z) - MetaMedSeg: Volumetric Meta-learning for Few-Shot Organ Segmentation [47.428577772279176]
本稿では,容量医学データに対するメタラーニングタスクを再定義する,勾配に基づくメタラーニングアルゴリズムであるMetaMedSegを提案する。
実験では, 異なる臓器のCTおよびMRIから2Dスライスを抽出し, 医療用デカトロンデータセットの評価を行った。
提案したボリュームタスク定義は,関連するベースラインと比較してIoUで最大30%改善した。
論文 参考訳(メタデータ) (2021-09-18T11:13:45Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。