論文の概要: Integrative Imaging Informatics for Cancer Research: Workflow Automation
for Neuro-oncology (I3CR-WANO)
- arxiv url: http://arxiv.org/abs/2210.03151v1
- Date: Thu, 6 Oct 2022 18:23:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:32:40.013683
- Title: Integrative Imaging Informatics for Cancer Research: Workflow Automation
for Neuro-oncology (I3CR-WANO)
- Title(参考訳): がん研究のための統合イメージングインフォマティクス:ニューロオンコロジーのためのワークフロー自動化(I3CR-WANO)
- Authors: Satrajit Chakrabarty, Syed Amaan Abidi, Mina Mousa, Mahati Mokkarala,
Isabelle Hren, Divya Yadav, Matthew Kelsey, Pamela LaMontagne, John Wood,
Michael Adams, Yuzhuo Su, Sherry Thorpe, Caroline Chung, Aristeidis Sotiras,
and Daniel S. Marcus
- Abstract要約: 我々は,多系列ニューロオンコロジーMRIデータの集約と処理のための人工知能ベースのソリューションを提案する。
エンド・ツー・エンドのフレームワーク i) アンサンブル分類器を用いてMRIの配列を分類し, i) 再現可能な方法でデータを前処理し, iv) 腫瘍組織サブタイプを規定する。
欠落したシーケンスに対して堅牢であり、専門的なループアプローチを採用しており、セグメンテーションの結果は放射線学者によって手動で洗練される可能性がある。
- 参考スコア(独自算出の注目度): 0.12175619840081271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efforts to utilize growing volumes of clinical imaging data to generate tumor
evaluations continue to require significant manual data wrangling owing to the
data heterogeneity. Here, we propose an artificial intelligence-based solution
for the aggregation and processing of multisequence neuro-oncology MRI data to
extract quantitative tumor measurements. Our end-to-end framework i) classifies
MRI sequences using an ensemble classifier, ii) preprocesses the data in a
reproducible manner, iii) delineates tumor tissue subtypes using convolutional
neural networks, and iv) extracts diverse radiomic features. Moreover, it is
robust to missing sequences and adopts an expert-in-the-loop approach, where
the segmentation results may be manually refined by radiologists. Following the
implementation of the framework in Docker containers, it was applied to two
retrospective glioma datasets collected from the Washington University School
of Medicine (WUSM; n = 384) and the M.D. Anderson Cancer Center (MDA; n = 30)
comprising preoperative MRI scans from patients with pathologically confirmed
gliomas. The scan-type classifier yielded an accuracy of over 99%, correctly
identifying sequences from 380/384 and 30/30 sessions from the WUSM and MDA
datasets, respectively. Segmentation performance was quantified using the Dice
Similarity Coefficient between the predicted and expert-refined tumor masks.
Mean Dice scores were 0.882 ($\pm$0.244) and 0.977 ($\pm$0.04) for whole tumor
segmentation for WUSM and MDA, respectively. This streamlined framework
automatically curated, processed, and segmented raw MRI data of patients with
varying grades of gliomas, enabling the curation of large-scale neuro-oncology
datasets and demonstrating a high potential for integration as an assistive
tool in clinical practice.
- Abstract(参考訳): 腫瘍評価を作成するために臨床画像データの量を増やす努力は、データの不均一性のためにかなりの手動データを必要とする。
本稿では,多系列神経腫瘍学MRIデータの集約と処理のための人工知能ベースのソリューションを提案する。
エンドツーエンドフレームワーク
一 アンサンブル分類器を用いてMRI配列を分類すること。
二 再現可能な方法でデータを前処理すること。
iii)畳み込みニューラルネットワークを用いた腫瘍組織サブタイプの検討
iv) 多様な放射線特性を抽出する。
さらに、欠落したシーケンスにロバストで、expert-in-the-loopアプローチを採用しており、セグメンテーションの結果は放射線技師によって手作業で洗練される可能性がある。
dockerコンテナでのフレームワークの実装に続いて、ワシントン大学医学部(wusm; n = 384)とm.d. anderson cancer center(mda; n = 30)から収集された2つの振り返りグリオーマデータセットに適用し、病理診断グリオーマ患者からのmriスキャンを行った。
スキャン型分類器の精度は99%を超え、それぞれWUSMデータセットとMDAデータセットから380/384セッションと30/30セッションのシーケンスを正確に同定した。
予測した腫瘍マスクと切除した腫瘍マスクのDice similarity Coefficientを用いてセグメンテーション性能を定量化した。
平均diceスコアはwusmとmdaでそれぞれ0.882 (\pm$0.244) と0.977 (\pm$0.04) であった。
この合理化フレームワークは、グリオーマの様々なグレードを持つ患者のMRIデータを自動でキュレート、処理、セグメンテーションし、大規模な神経腫瘍学データセットのキュレーションを可能にし、臨床実践における補助具としての統合の可能性を示す。
関連論文リスト
- Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic
Segmentation [49.916468280857885]
Mask-Enhanced SAM (M-SAM) は3次元腫瘍病変の分節に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Fully Automated Tumor Segmentation for Brain MRI data using Multiplanner
UNet [0.29998889086656577]
本研究は,3つの挑戦的データセットにまたがる腫瘍サブリージョンの分割におけるマルチプランナーU-Net(MPUnet)アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2024-01-12T10:46:19Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Automated Ensemble-Based Segmentation of Adult Brain Tumors: A Novel
Approach Using the BraTS AFRICA Challenge Data [0.0]
3つのコアアーキテクチャに基づく11種類のユニークなバリエーションからなるアンサンブル手法を提案する。
その結果,異なるアーキテクチャを組み合わせるアンサンブルアプローチが単一モデルより優れていることがわかった。
これらの結果は、脳腫瘍を正確に分類する上での、調整された深層学習技術の可能性を裏付けるものである。
論文 参考訳(メタデータ) (2023-08-14T15:34:22Z) - Segmentation of glioblastomas in early post-operative multi-modal MRI
with deep neural networks [33.51490233427579]
手術前セグメンテーションのための2つの最先端ニューラルネットワークアーキテクチャをトレーニングした。
最高の成績は61%のDiceスコアで、最高の分類性能は80%のバランスの取れた精度で達成された。
予測セグメンテーションは、患者を残存腫瘍と全切除患者に正確に分類するために用いられる。
論文 参考訳(メタデータ) (2023-04-18T10:14:45Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Feature-enhanced Generation and Multi-modality Fusion based Deep Neural
Network for Brain Tumor Segmentation with Missing MR Modalities [2.867517731896504]
主な問題は、すべてのMRIが常に臨床検査で利用できるわけではないことである。
今回我々は1つ以上のモダリティが欠落した場合に新しい脳腫瘍分節ネットワークを提案する。
提案ネットワークは,機能強化ジェネレータ,相関制約ブロック,セグメンテーションネットワークの3つのサブネットワークで構成されている。
論文 参考訳(メタデータ) (2021-11-08T10:59:40Z) - 3D AGSE-VNet: An Automatic Brain Tumor MRI Data Segmentation Framework [3.0261170901794308]
グリオーマは最も一般的な脳悪性腫瘍であり、高い死亡率と3%以上の死亡率を有する。
このクリニックで脳腫瘍を取得する主要な方法は、マルチモーダルMRIスキャン画像から脳腫瘍領域のMRIである。
我々はAGSE-VNetと呼ばれる自動脳腫瘍MRIデータセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-26T09:04:59Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。