論文の概要: Improving Across-Dataset Brain Tissue Segmentation Using Transformer
- arxiv url: http://arxiv.org/abs/2201.08741v1
- Date: Fri, 21 Jan 2022 15:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 14:21:24.743950
- Title: Improving Across-Dataset Brain Tissue Segmentation Using Transformer
- Title(参考訳): Transformer を用いたアクロスデータセット脳組織セグメンテーションの改善
- Authors: Vishwanatha M. Rao, Zihan Wan, David J. Ma, Pin-Yu Lee, Ye Tian,
Andrew F. Laine, Jia Guo
- Abstract要約: 本研究では,脳組織セグメンテーションのための新しいCNN-Transformerハイブリッドアーキテクチャを提案する。
我々は、4つのマルチサイトT1w MRIデータセットでモデルの性能を検証する。
- 参考スコア(独自算出の注目度): 10.838458766450989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain tissue segmentation has demonstrated great utility in quantifying MRI
data through Voxel-Based Morphometry and highlighting subtle structural changes
associated with various conditions within the brain. However, manual
segmentation is highly labor-intensive, and automated approaches have struggled
due to properties inherent to MRI acquisition, leaving a great need for an
effective segmentation tool. Despite the recent success of deep convolutional
neural networks (CNNs) for brain tissue segmentation, many such solutions do
not generalize well to new datasets, which is critical for a reliable solution.
Transformers have demonstrated success in natural image segmentation and have
recently been applied to 3D medical image segmentation tasks due to their
ability to capture long-distance relationships in the input where the local
receptive fields of CNNs struggle. This study introduces a novel
CNN-Transformer hybrid architecture designed for brain tissue segmentation. We
validate our model's performance across four multi-site T1w MRI datasets,
covering different vendors, field strengths, scan parameters, time points, and
neuropsychiatric conditions. In all situations, our model achieved the greatest
generality and reliability. Out method is inherently robust and can serve as a
valuable tool for brain-related T1w MRI studies. The code for the TABS network
is available at: https://github.com/raovish6/TABS.
- Abstract(参考訳): 脳組織セグメンテーションは、Voxel-based Morphometryを通してMRIデータを定量化し、脳内の様々な条件に関連する微妙な構造変化を強調するのに非常に有用である。
しかし、手動セグメンテーションは非常に労働集約的であり、MRIの取得に固有の性質のために自動化アプローチは苦戦しており、効果的なセグメンテーションツールの必要性は大きい。
最近の脳組織セグメンテーションにおけるディープ畳み込みニューラルネットワーク(CNN)の成功にもかかわらず、そのようなソリューションの多くは新しいデータセットをうまく一般化していない。
トランスフォーマは自然画像のセグメンテーションに成功しており、最近はcnnの局所受容野が苦闘する入力における長距離関係を捉える能力から、3次元医用画像セグメンテーションタスクに応用されている。
本研究では,脳組織セグメンテーションのための新しいCNN-Transformerハイブリッドアーキテクチャを提案する。
我々は,様々なベンダー,フィールド強度,スキャンパラメータ,タイムポイント,神経心理学的条件をカバーする4つのマルチサイトt1wmriデータセットにおいて,モデルの性能を検証する。
あらゆる状況において、我々のモデルは最大の汎用性と信頼性を達成した。
アウトメソッドは本質的に堅牢であり、脳関連T1wMRI研究に有用なツールとなる。
TABSネットワークのコードは、https://github.com/raovish6/TABSで公開されている。
関連論文リスト
- Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - 3D Brainformer: 3D Fusion Transformer for Brain Tumor Segmentation [6.127298607534532]
深層学習は、最近脳腫瘍のセグメンテーションを改善するために現れた。
変換器は畳み込みネットワークの限界に対処するために利用されてきた。
本稿では,3次元トランスフォーマーを用いたセグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2023-04-28T02:11:29Z) - Investigating certain choices of CNN configurations for brain lesion
segmentation [5.148195106469231]
深層学習モデル、特にCNNは、脳腫瘍セグメンテーションを含む医療画像解析の多くの応用において、選択の方法論となっている。
我々はMRIを用いた脳腫瘍セグメント化の特定の課題に対するCNNモデルの主設計側面について検討した。
論文 参考訳(メタデータ) (2022-12-02T15:24:44Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - SynthSeg: Domain Randomisation for Segmentation of Brain MRI Scans of
any Contrast and Resolution [7.070890465817133]
畳み込みニューラルネットワーク(CNN)は、目に見えないターゲットドメインに一般化するのが困難である。
コントラストと解像度の脳MRIスキャンに最初のセグメンテーションCNNであるSynthSegを導入する。
6つのモダリティと10の解像度の5,500のスキャンでSynthSegを実証し、非並列な一般化を示す。
論文 参考訳(メタデータ) (2021-07-20T15:22:16Z) - DeepSeg: Deep Neural Network Framework for Automatic Brain Tumor
Segmentation using Magnetic Resonance FLAIR Images [0.0]
グリオーマは最も一般的で攻撃的な脳腫瘍である。
FLAIR(Fluid-Attenuated Inversion Recovery) MRIは、腫瘍浸潤に関する情報を提供する。
本稿では,脳病変の完全自動検出とセグメンテーションのためのDeepSegという,新しい総合的なディープラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-26T09:50:02Z) - MS-Net: Multi-Site Network for Improving Prostate Segmentation with
Heterogeneous MRI Data [75.73881040581767]
本稿では,ロバスト表現を学習し,前立腺のセグメンテーションを改善するための新しいマルチサイトネットワーク(MS-Net)を提案する。
当社のMS-Netは,すべてのデータセットのパフォーマンスを一貫して改善し,マルチサイト学習における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-02-09T14:11:50Z) - Transfer Learning for Brain Tumor Segmentation [0.6408773096179187]
グリオーマは、化学療法や手術で治療される最も一般的な悪性脳腫瘍である。
近年のディープラーニングの進歩により、様々な視覚認識タスクに優れた畳み込みニューラルネットワークアーキテクチャが実現されている。
本研究では,事前学習した畳み込みエンコーダを用いてFCNを構築し,この方法でトレーニングプロセスを安定させ,ダイススコアやハウスドルフ距離に対する改善を実現することを示す。
論文 参考訳(メタデータ) (2019-12-28T12:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。