論文の概要: ivadomed: A Medical Imaging Deep Learning Toolbox
- arxiv url: http://arxiv.org/abs/2010.09984v1
- Date: Tue, 20 Oct 2020 03:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 07:41:00.902990
- Title: ivadomed: A Medical Imaging Deep Learning Toolbox
- Title(参考訳): ivadomed: 医療画像のディープラーニングツールボックス
- Authors: Charley Gros, Andreanne Lemay, Olivier Vincent, Lucas Rouhier, Anthime
Bucquet, Joseph Paul Cohen, Julien Cohen-Adad
- Abstract要約: ivadomedは、ディープラーニングモデルを設計、エンドツーエンドのトレーニング、評価するためのオープンソースのPythonパッケージである。
パッケージにはAPI、コマンドラインツール、ドキュメント、チュートリアルが含まれている。
- 参考スコア(独自算出の注目度): 3.6064670806006647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ivadomed is an open-source Python package for designing, end-to-end training,
and evaluating deep learning models applied to medical imaging data. The
package includes APIs, command-line tools, documentation, and tutorials.
ivadomed also includes pre-trained models such as spinal tumor segmentation and
vertebral labeling. Original features of ivadomed include a data loader that
can parse image metadata (e.g., acquisition parameters, image contrast,
resolution) and subject metadata (e.g., pathology, age, sex) for custom data
splitting or extra information during training and evaluation. Any dataset
following the Brain Imaging Data Structure (BIDS) convention will be compatible
with ivadomed without the need to manually organize the data, which is
typically a tedious task. Beyond the traditional deep learning methods,
ivadomed features cutting-edge architectures, such as FiLM and HeMis, as well
as various uncertainty estimation methods (aleatoric and epistemic), and losses
adapted to imbalanced classes and non-binary predictions. Each step is
conveniently configurable via a single file. At the same time, the code is
highly modular to allow addition/modification of an architecture or
pre/post-processing steps. Example applications of ivadomed include MRI object
detection, segmentation, and labeling of anatomical and pathological
structures. Overall, ivadomed enables easy and quick exploration of the latest
advances in deep learning for medical imaging applications. ivadomed's main
project page is available at https://ivadomed.org.
- Abstract(参考訳): ivadomedは、医療画像データに適用されたディープラーニングモデルの設計、エンドツーエンドトレーニング、評価のためのオープンソースのPythonパッケージである。
パッケージにはAPI、コマンドラインツール、ドキュメント、チュートリアルが含まれている。
ivadomedはまた、脊髄腫瘍セグメンテーションや脊椎ラベリングなどの訓練済みモデルも含む。
ivadomedの本来の特徴は、画像メタデータ(例えば、取得パラメータ、画像コントラスト、解像度)を解析できるデータローダと、カスタムデータ分割やトレーニングや評価中の追加情報のための主題メタデータ(例えば、病理学、年齢、性別)である。
脳イメージングデータ構造(bids)の規約に従うデータセットは、手作業でデータを整理する必要なしに、ivadomedと互換性がある。
従来のディープラーニング手法以外にも、FiLMやHeMisといった最先端のアーキテクチャや、さまざまな不確実性推定手法(聴診器やてんかん)、不均衡なクラスや非バイナリ予測に適応した損失などがある。
各ステップは、単一のファイルで簡単に設定できる。
同時に、コードは高度にモジュール化されており、アーキテクチャの追加/修正や前/後処理のステップを可能にします。
ivadomedの例としては、MRIオブジェクトの検出、セグメンテーション、解剖学的および病理学的構造のラベル付けなどがある。
総じてivadomedは、医療画像アプリケーションにおけるディープラーニングの最新進歩を、簡単かつ迅速に探究できる。
ivadomedのメインプロジェクトページはhttps://ivadomed.org.com/で見ることができる。
関連論文リスト
- LoGra-Med: Long Context Multi-Graph Alignment for Medical Vision-Language Model [55.80651780294357]
最新の医療用マルチモーダル大規模言語モデル(med-MLLM)は、事前訓練において命令追従データを活用する。
LoGra-Medは新しいマルチグラフアライメントアルゴリズムで、画像のモダリティ、会話ベースの記述、拡張キャプション間でのトリプルト相関を強制する。
以上の結果から,LoGra-Medは医療用VQAの600K画像テキスト対に対してLAVA-Medと一致し,その10%でトレーニングした場合に有意に優れていた。
論文 参考訳(メタデータ) (2024-10-03T15:52:03Z) - MedPix 2.0: A Comprehensive Multimodal Biomedical Dataset for Advanced AI Applications [0.0]
本稿では、データセットMedPix 2.0を構築するためのワークフロー全体について説明する。
データセットとともに、MongoDBインスタンスを効率的にナビゲートするためのGUIを開発しました。
また、分類タスクをスキャンするために、MedPix 2.0でトレーニングされたCLIPベースのモデルを提案する。
論文 参考訳(メタデータ) (2024-07-03T10:49:21Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - LiteNeXt: A Novel Lightweight ConvMixer-based Model with Self-embedding Representation Parallel for Medical Image Segmentation [2.0901574458380403]
医用画像分割のための軽量だが効率的な新しいモデル LiteNeXt を提案する。
LiteNeXtは、少量のパラメータ (0.71M) とギガ浮動小数点演算 (0.42) でスクラッチから訓練されている。
論文 参考訳(メタデータ) (2024-04-04T01:59:19Z) - Modular Deep Active Learning Framework for Image Annotation: A Technical Report for the Ophthalmo-AI Project [1.7325492987380366]
MedDeepCyleALは、完全なアクティブラーニングサイクルを実装するエンドツーエンドフレームワークである。
研究者に、採用したいディープラーニングモデルの種類を選択する柔軟性を提供する。
MedDeepCyleALはどんな画像データにも適用可能ですが、本プロジェクトでは特に眼科データに適用しています。
論文 参考訳(メタデータ) (2024-03-22T11:53:03Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - ClamNet: Using contrastive learning with variable depth Unets for
medical image segmentation [0.0]
ユニッツは、完全な畳み込みネットワーク(FCN)とともに、医療画像のセマンティックセグメンテーションの標準手法となった。
Unet++は、UnetとFCNが直面している問題のいくつかを解決するために、Unetの亜種として導入された。
医用画像のセマンティックセグメンテーションにUnet++を訓練するために, コントラスト学習を用いる。
論文 参考訳(メタデータ) (2022-06-10T16:55:45Z) - MetaMedSeg: Volumetric Meta-learning for Few-Shot Organ Segmentation [47.428577772279176]
本稿では,容量医学データに対するメタラーニングタスクを再定義する,勾配に基づくメタラーニングアルゴリズムであるMetaMedSegを提案する。
実験では, 異なる臓器のCTおよびMRIから2Dスライスを抽出し, 医療用デカトロンデータセットの評価を行った。
提案したボリュームタスク定義は,関連するベースラインと比較してIoUで最大30%改善した。
論文 参考訳(メタデータ) (2021-09-18T11:13:45Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。