論文の概要: Neural Architecture Search for Gliomas Segmentation on Multimodal
Magnetic Resonance Imaging
- arxiv url: http://arxiv.org/abs/2005.06338v2
- Date: Wed, 20 May 2020 06:00:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 12:40:29.401101
- Title: Neural Architecture Search for Gliomas Segmentation on Multimodal
Magnetic Resonance Imaging
- Title(参考訳): 多モード磁気共鳴イメージングによるグリオーマの神経構造探索
- Authors: Feifan Wang
- Abstract要約: マルチモーダルMRIスキャンにおける脳腫瘍セグメント化課題に対するニューラルアーキテクチャサーチ(NAS)に基づくソリューションを提案する。
開発されたソリューションは、また、脳MRI処理に適した正規化とパッチ戦略を統合する。
- 参考スコア(独自算出の注目度): 2.66512000865131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Past few years have witnessed the artificial intelligence inspired evolution
in various medical fields. The diagnosis and treatment of gliomas -- one of the
most commonly seen brain tumors with low survival rate -- rely heavily on the
computer assisted segmentation process undertaken on the magnetic resonance
imaging (MRI) scans. Although the encoder-decoder shaped deep learning networks
have been the de facto standard style for semantic segmentation tasks in
medical imaging analysis, enormous effort is still required to be spent on
designing the detailed architecture of the down-sampling and up-sampling
blocks. In this work, we propose a neural architecture search (NAS) based
solution to brain tumor segmentation tasks on multimodal volumetric MRI scans.
Three sets of candidate operations are composed respectively for three kinds of
basic building blocks in which each operation is assigned with a specific
probabilistic parameter to be learned. Through alternately updating the weights
of operations and the other parameters in the network, the searching mechanism
ends up with two optimal structures for the upward and downward blocks.
Moreover, the developed solution also integrates normalization and patching
strategies tailored for brain MRI processing. Extensive comparative experiments
on the BraTS 2019 dataset demonstrate that the proposed algorithm not only
could relieve the pressure of fabricating block architectures but also
possesses competitive feasibility and scalability.
- Abstract(参考訳): ここ数年は、さまざまな医療分野における人工知能の進化に触発された。
グリオーマ(生存率の低い脳腫瘍)の診断と治療は、磁気共鳴画像(MRI)スキャンによって行われるコンピュータ支援のセグメンテーションプロセスに大きく依存している。
エンコーダ・デコーダ型の深層学習ネットワークは、医用画像解析における意味的セグメンテーションタスクの事実上の標準スタイルであるが、ダウンサンプリングブロックとアップサンプリングブロックの詳細なアーキテクチャ設計に多大な労力を費やす必要がある。
本研究では,マルチモーダル容積MRIスキャンにおける脳腫瘍セグメント化タスクに対するニューラルアーキテクチャサーチ(NAS)に基づくソリューションを提案する。
それぞれの操作に特定の確率パラメータを割り当てて学習する3種類の基本構成ブロックに対して、それぞれ3組の候補演算が構成される。
操作の重みとネットワーク内の他のパラメータを交互に更新することで、検索機構は上向きと下向きのブロックに対して2つの最適な構造となる。
さらに,脳mri処理に適した正規化およびパッチ適用戦略も統合した。
brats 2019データセットに関する広範な比較実験は、提案アルゴリズムがブロックアーキテクチャ構築のプレッシャーを和らげるだけでなく、競争力とスケーラビリティを持つことを示した。
関連論文リスト
- An Ensemble Approach for Brain Tumor Segmentation and Synthesis [0.12777007405746044]
磁気共鳴イメージング(MRI)における機械学習の統合は、信じられないほど効果的であることが証明されている。
ディープラーニングモデルは、複雑なデータの複雑な詳細をキャプチャするために、複数の処理層を利用する。
本稿では,最先端アーキテクチャを組み込んだディープラーニングフレームワークを提案し,精度の高いセグメンテーションを実現する。
論文 参考訳(メタデータ) (2024-11-26T17:28:51Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Exploration of Multi-Scale Image Fusion Systems in Intelligent Medical Image Analysis [3.881664394416534]
MRI画像上で脳腫瘍の自動分離を行う必要がある。
このプロジェクトは、U-Netに基づいたMRIアルゴリズムを構築することを目的としている。
論文 参考訳(メタデータ) (2024-05-23T04:33:12Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - 3D Brainformer: 3D Fusion Transformer for Brain Tumor Segmentation [6.127298607534532]
深層学習は、最近脳腫瘍のセグメンテーションを改善するために現れた。
変換器は畳み込みネットワークの限界に対処するために利用されてきた。
本稿では,3次元トランスフォーマーを用いたセグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2023-04-28T02:11:29Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Context Aware 3D UNet for Brain Tumor Segmentation [24.27997192961372]
UNetは、医用イメージングタスクのための3D CNNアーキテクチャのパフォーマンスの主要な情報源である。
脳腫瘍セグメント化のためのUNetアーキテクチャの修正を提案する。
論文 参考訳(メタデータ) (2020-10-25T10:32:25Z) - Transfer Learning for Brain Tumor Segmentation [0.6408773096179187]
グリオーマは、化学療法や手術で治療される最も一般的な悪性脳腫瘍である。
近年のディープラーニングの進歩により、様々な視覚認識タスクに優れた畳み込みニューラルネットワークアーキテクチャが実現されている。
本研究では,事前学習した畳み込みエンコーダを用いてFCNを構築し,この方法でトレーニングプロセスを安定させ,ダイススコアやハウスドルフ距離に対する改善を実現することを示す。
論文 参考訳(メタデータ) (2019-12-28T12:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。