論文の概要: QU-net++: Image Quality Detection Framework for Segmentation of 3D
Medical Image Stacks
- arxiv url: http://arxiv.org/abs/2110.14181v1
- Date: Wed, 27 Oct 2021 05:28:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 03:32:55.113480
- Title: QU-net++: Image Quality Detection Framework for Segmentation of 3D
Medical Image Stacks
- Title(参考訳): QU-net++:3次元医用画像スタックのセグメンテーションのための画像品質検出フレームワーク
- Authors: Sohini Roychowdhury
- Abstract要約: U-net++モデルを用いて3次元画像スタックから医用画像の品質を評価する2段階自動評価手法を提案する。
検出された画像は、セマンティックセグメンテーションのためにU-net++モデルをさらに微調整するために使用することができる。
- 参考スコア(独自算出の注目度): 0.9594432031144714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated segmentation of pathological regions of interest has been shown to
aid prognosis and follow up treatment. However, accurate pathological
segmentations require high quality of annotated data that can be both cost and
time intensive to generate. In this work, we propose an automated two-step
method that evaluates the quality of medical images from 3D image stacks using
a U-net++ model, such that images that can aid further training of the U-net++
model can be detected based on the disagreement in segmentations produced from
the final two layers. Images thus detected can then be used to further fine
tune the U-net++ model for semantic segmentation. The proposed QU-net++ model
isolates around 10\% of images per 3D stack and can scale across imaging
modalities to segment cysts in OCT images and ground glass opacity in Lung CT
images with Dice cores in the range 0.56-0.72. Thus, the proposed method can be
applied for multi-modal binary segmentation of pathology.
- Abstract(参考訳): 病理領域の自動セグメンテーションは予後と治療に有効であることが示されている。
しかし、正確な病理的区分は、生成するのにコストと時間の両方を要しうる注釈付きデータの質が高い。
そこで本研究では,u-net++モデルを用いて,医用画像スタックから医用画像の品質を評価するための2段階自動化手法を提案する。
検出された画像は、セマンティックセグメンテーションのためにU-net++モデルをさらに微調整するために使用することができる。
提案したQU-net++モデルでは,3Dスタックあたりの画像の約10\%を分離し,OCT画像中の嚢胞の分画やDiceコアが0.56-0.72の範囲のLung CT画像のグラウンドガラス不透明度に拡大することができる。
そこで,提案手法は病理学のマルチモーダルバイナリセグメンテーションに適用できる。
関連論文リスト
- μ-Net: A Deep Learning-Based Architecture for μ-CT Segmentation [2.012378666405002]
X線計算マイクロトモグラフィー(mu-CT)は、医学および生物学的サンプルの内部解剖の高解像度な3D画像を生成する非破壊的手法である。
3D画像から関連情報を抽出するには、興味のある領域のセマンティックセグメンテーションが必要である。
本稿では、畳み込みニューラルネットワーク(CNN)を用いて、Carassius auratusの心臓の完全な形態を自動分割する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T15:29:08Z) - Promise:Prompt-driven 3D Medical Image Segmentation Using Pretrained
Image Foundation Models [13.08275555017179]
単点プロンプトのみを用いたプロンプト駆動型3次元医用画像分割モデルProMISeを提案する。
今回,大腸癌と膵腫瘍の2つの領域に分布する2つのパブリックデータセットについて検討した。
論文 参考訳(メタデータ) (2023-10-30T16:49:03Z) - On the Localization of Ultrasound Image Slices within Point Distribution
Models [84.27083443424408]
甲状腺疾患は高分解能超音波(US)で診断されることが多い
縦断追跡は病理甲状腺形態の変化をモニタリングするための重要な診断プロトコルである。
3次元形状表現におけるUS画像の自動スライスローカライズのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-01T10:10:46Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - AttResDU-Net: Medical Image Segmentation Using Attention-based Residual
Double U-Net [0.0]
本稿では,既存の医用画像セグメンテーションネットワークを改善したアテンションベース残留Double U-Netアーキテクチャ(AttResDU-Net)を提案する。
CVC clinic-DB、ISIC 2018、2018 Data Science Bowlの3つのデータセットで実験を行い、それぞれ94.35%、91.68%、92.45%のDice Coefficientスコアを得た。
論文 参考訳(メタデータ) (2023-06-25T14:28:08Z) - NUMSnet: Nested-U Multi-class Segmentation network for 3D Medical Image
Stacks [1.2335698325757494]
NUMSnetはUnetモデルの新たな変種であり、ネストした層を通してスキャン間でピクセル近傍の特徴を伝達する。
NUMSnetモデルのセマンティックセグメンテーション性能をいくつかのUnetモデルと比較して解析する。
提案モデルは,最小限のトレーニングデータセットを用いて,様々なボリュームイメージスタック上でのマルチクラスセマンティックセマンティックセマンティックセマンティクスを標準化することができる。
論文 参考訳(メタデータ) (2023-04-05T19:16:29Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - A$^3$DSegNet: Anatomy-aware artifact disentanglement and segmentation
network for unpaired segmentation, artifact reduction, and modality
translation [18.500206499468902]
CBCT画像は, ノイズ, 組織コントラストの低下, 金属物の存在により, 品質が低く, 人工物が混入している。
脊椎のアノテーションを付加した、人工物のない高品質なCT画像が豊富に存在する。
CBCT椎体分割モデルの構築には, アノテーションを付加した未確認CT画像が有用である。
論文 参考訳(メタデータ) (2020-01-02T06:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。