論文の概要: DeepGI: An Automated Approach for Gastrointestinal Tract Segmentation in
MRI Scans
- arxiv url: http://arxiv.org/abs/2401.15354v1
- Date: Sat, 27 Jan 2024 09:05:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 18:37:26.701698
- Title: DeepGI: An Automated Approach for Gastrointestinal Tract Segmentation in
MRI Scans
- Title(参考訳): DeepGI:MRIにおける消化管切開の自動化アプローチ
- Authors: Ye Zhang, Yulu Gong, Dongji Cui, Xinrui Li, Xinyu Shen
- Abstract要約: 消化器癌(GI)は、適切な治療結果を得るために正確な放射線治療計画を要求する、世界的な健康上の課題を引き起こす。
本稿では,磁気共鳴画像(MRI)スキャンにおいて,GI領域の領域分割を自動化するための最先端手法を提案する。
高度なディープラーニングアーキテクチャを活用して、提案モデルは初期分類にInception-V4、2.5DデータにVGG19エンコーダにUNet++、グレースケールデータセグメンテーションにEdge UNetを統合する。
- 参考スコア(独自算出の注目度): 5.997902886763401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gastrointestinal (GI) tract cancers pose a global health challenge, demanding
precise radiotherapy planning for optimal treatment outcomes. This paper
introduces a cutting-edge approach to automate the segmentation of GI tract
regions in magnetic resonance imaging (MRI) scans. Leveraging advanced deep
learning architectures, the proposed model integrates Inception-V4 for initial
classification, UNet++ with a VGG19 encoder for 2.5D data, and Edge UNet for
grayscale data segmentation. Meticulous data preprocessing, including
innovative 2.5D processing, is employed to enhance adaptability, robustness,
and accuracy.
This work addresses the manual and time-consuming segmentation process in
current radiotherapy planning, presenting a unified model that captures
intricate anatomical details. The integration of diverse architectures, each
specializing in unique aspects of the segmentation task, signifies a novel and
comprehensive solution. This model emerges as an efficient and accurate tool
for clinicians, marking a significant advancement in the field of GI tract
image segmentation for radiotherapy planning.
- Abstract(参考訳): 消化器癌(GI)は、適切な治療結果を得るために正確な放射線治療計画を要求する、世界的な健康問題を引き起こす。
本稿では磁気共鳴画像(MRI)スキャンにおけるGI領域の分割を自動化するための最先端手法を提案する。
高度なディープラーニングアーキテクチャを活用して、提案モデルは初期分類にInception-V4、2.5DデータにVGG19エンコーダにUNet++、グレースケールデータセグメンテーションにEdge UNetを統合する。
革新的な2.5D処理を含む重要なデータ前処理は、適応性、堅牢性、精度を高めるために使用される。
本研究は,現在の放射線治療計画における手作業と時間を要する分節化プロセスに対処し,複雑な解剖学的詳細を捉えた統一モデルを提案する。
セグメンテーションタスクの独特な側面を専門とする多様なアーキテクチャの統合は、新しく包括的なソリューションを意味する。
このモデルは,放射線治療計画のためのGIトラクター画像分割の分野での進歩を示す,臨床医のための効率的かつ正確なツールとして出現する。
関連論文リスト
- CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Ultrasound Image Segmentation of Thyroid Nodule via Latent Semantic
Feature Co-Registration [12.211161441766532]
本稿では,甲状腺結節分節の枠組みであるASTNを提案する。
アトラスおよび対象画像から潜在意味情報を抽出することにより、解剖学的構造の整合性を確保することができる。
また,共同登録の難しさを軽減するために,アトラス選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-13T16:18:48Z) - CARE: A Large Scale CT Image Dataset and Clinical Applicable Benchmark
Model for Rectal Cancer Segmentation [8.728236864462302]
CT画像の直腸癌セグメンテーションは、タイムリーな臨床診断、放射線治療、経過観察において重要な役割を担っている。
これらの障害は直腸の複雑な解剖学的構造と直腸癌の鑑別診断の困難から生じる。
これらの課題に対処するため,本研究では,正常直腸と癌直腸の両方にピクセルレベルのアノテーションを付加した,新しい大規模直腸癌CT画像データセットCAREを導入する。
また,U-SAMと命名された新しい癌病変セグメンテーションベンチマークモデルを提案する。
このモデルは、迅速な情報を取り入れることで、腹部器官の複雑な解剖学的構造によって引き起こされる課題に対処するように設計されている。
論文 参考訳(メタデータ) (2023-08-16T10:51:27Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - Integrative Imaging Informatics for Cancer Research: Workflow Automation
for Neuro-oncology (I3CR-WANO) [0.12175619840081271]
我々は,多系列ニューロオンコロジーMRIデータの集約と処理のための人工知能ベースのソリューションを提案する。
エンド・ツー・エンドのフレームワーク i) アンサンブル分類器を用いてMRIの配列を分類し, i) 再現可能な方法でデータを前処理し, iv) 腫瘍組織サブタイプを規定する。
欠落したシーケンスに対して堅牢であり、専門的なループアプローチを採用しており、セグメンテーションの結果は放射線学者によって手動で洗練される可能性がある。
論文 参考訳(メタデータ) (2022-10-06T18:23:42Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation [16.881624842773604]
FUN-SISについて述べる。
我々は、暗黙の動作情報と楽器形状に依存して、完全に装飾されていない内視鏡ビデオに基づいてフレーム単位のセグメンテーションモデルを訓練する。
手術器具のセグメンテーションの完全教師なしの結果は, 完全に監督された最先端のアプローチとほぼ同等である。
論文 参考訳(メタデータ) (2022-02-16T15:32:02Z) - Shape-aware Meta-learning for Generalizing Prostate MRI Segmentation to
Unseen Domains [68.73614619875814]
前立腺MRIのセグメント化におけるモデル一般化を改善するために,新しい形状認識メタラーニング手法を提案する。
実験結果から,本手法は未確認領域の6つの設定すべてにおいて,最先端の一般化手法を一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-04T07:56:02Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。