論文の概要: Breast mass segmentation based on ultrasonic entropy maps and attention
gated U-Net
- arxiv url: http://arxiv.org/abs/2001.10061v1
- Date: Mon, 27 Jan 2020 20:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 08:33:57.506256
- Title: Breast mass segmentation based on ultrasonic entropy maps and attention
gated U-Net
- Title(参考訳): 超音波エントロピーマップと注意誘導U-Netに基づく乳房マスセグメンテーション
- Authors: Michal Byra, Piotr Jarosik, Katarzyna Dobruch-Sobczak, Ziemowit
Klimonda, Hanna Piotrzkowska-Wroblewska, Jerzy Litniewski, Andrzej Nowicki
- Abstract要約: 超音波(US)画像における乳房質量分画に対する新しい深層学習手法を提案する。
米国の画像を用いた分割法と比較して,本手法は定量的エントロピーパラメトリックマップに基づいている。
エントロピーマップに基づいてトレーニングした注意U-Netは平均Diceスコア0.60(中間0.71)を達成し、US画像を用いてトレーニングしたモデルでは平均Diceスコア0.53(中間0.59)を得た。
- 参考スコア(独自算出の注目度): 2.586100784625842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel deep learning based approach to breast mass segmentation
in ultrasound (US) imaging. In comparison to commonly applied segmentation
methods, which use US images, our approach is based on quantitative entropy
parametric maps. To segment the breast masses we utilized an attention gated
U-Net convolutional neural network. US images and entropy maps were generated
based on raw US signals collected from 269 breast masses. The segmentation
networks were developed separately using US image and entropy maps, and
evaluated on a test set of 81 breast masses. The attention U-Net trained based
on entropy maps achieved average Dice score of 0.60 (median 0.71), while for
the model trained using US images we obtained average Dice score of 0.53
(median 0.59). Our work presents the feasibility of using quantitative US
parametric maps for the breast mass segmentation. The obtained results suggest
that US parametric maps, which provide the information about local tissue
scattering properties, might be more suitable for the development of breast
mass segmentation methods than regular US images.
- Abstract(参考訳): 超音波(US)画像における乳房質量分画に対する新しい深層学習手法を提案する。
米国の画像を用いた分割法と比較して,本手法は定量的エントロピーパラメトリックマップに基づいている。
U-Net畳み込みニューラルネットワークを用いて乳腺腫瘤の分画を行った。
アメリカの画像とエントロピーマップは、269個の乳房から収集された生の米国信号に基づいて作成された。
セグメンテーションネットワークは,us画像とエントロピーマップを用いて別々に開発され,81乳房群で評価された。
エントロピーマップに基づいてトレーニングされた注意u-netは平均サイコロスコア0.60(中間071)、us画像を用いたトレーニングモデルでは平均サイコロスコア0.53(中間0.59)を得た。
本研究は,乳房マスセグメンテーションにおけるusパラメトリックマップの定量化の可能性を示す。
その結果, 局所組織散乱特性に関する情報を提供するUSパラメトリックマップは, 通常のUS画像よりも乳房質量分離法の開発に適している可能性が示唆された。
関連論文リスト
- Modifying the U-Net's Encoder-Decoder Architecture for Segmentation of Tumors in Breast Ultrasound Images [0.0]
U-Netとエンコーダデコーダアーキテクチャに基づくニューラルネットワーク(NN)を提案する。
我々のネットワーク(CResU-Net)は82.88%、77.5%、90.3%、98.4%のDice類似係数を得た。
論文 参考訳(メタデータ) (2024-09-01T07:47:48Z) - Thoracic Cartilage Ultrasound-CT Registration using Dense Skeleton Graph [49.11220791279602]
一般的なアトラスから個々の患者への計画された経路を正確にマッピングすることは困難である。
アトラスから現在の設定へ計画されたパスを転送できるように、グラフベースの非厳密な登録を提案する。
論文 参考訳(メタデータ) (2023-07-07T18:57:21Z) - Landmark Tracking in Liver US images Using Cascade Convolutional Neural
Networks with Long Short-Term Memory [9.49563286905127]
本研究では,超音波(US)画像誘導放射線治療のための深層学習に基づく追跡手法を提案する。
提案したモデルは、MICCAI(Medicical Image Computing and Computer Assisted Interventions) 2015の課題で使用される、米国における肝追跡データセットでテストされた。
論文 参考訳(メタデータ) (2022-09-14T22:01:20Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Mass Segmentation in Automated 3-D Breast Ultrasound Using Dual-Path
U-net [3.2088392364689122]
3次元乳房検診(ABUS)は,乳がん検診におけるマンモグラフィーの補助効果として提案されている新しい乳房検診システムである。
ABUSは高密度の乳房ではパフォーマンスが向上する一方、ABUS画像の読影は枯渇し、時間を要する。
これらの画像の解釈にはコンピュータ支援検出システムが必要である。
マスセグメンテーションはコンピュータ支援検出システムにおいて重要な役割を担い、全体的な性能に影響を与える。
論文 参考訳(メタデータ) (2021-09-17T02:52:37Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Saliency-Guided Deep Learning Network for Automatic Tumor Bed Volume
Delineation in Post-operative Breast Irradiation [0.0]
CT画像では,腫瘍床体積(TBV)と正常乳腺組織との対比が比較的低いため,術後乳房ターゲットの脱線は困難である。
術後乳房照射における正確なTBV分割のためのSDL(Saliency-based Deep Learning segmentation)アルゴリズムを開発した。
本モデルでは, DSC, HD95, ASD に対して 76.4 %, 6.76 mm, 1.9 mm の平均偏差 (標準偏差) を, 1 CT 体積あたり 11 秒以下で測定した。
論文 参考訳(メタデータ) (2021-05-06T15:57:23Z) - Dopamine Transporter SPECT Image Classification for Neurodegenerative
Parkinsonism via Diffusion Maps and Machine Learning Classifiers [0.0]
本研究では, SPECT イメージを通常の DaT-SPECT イメージ群と異常 DaT-SPECT イメージ群の2種類に分類する,自動的かつ堅牢な方法を提案する。
N患者の3D画像はN by Nペアワイズ距離行列にマッピングされ、トレーニングセットは拡散マップを使用して低次元空間に埋め込まれる。
この方法の実現可能性は、Parkinsonism Progression Markers Initiative(PPMI)データセット1097の被験者と630人の患者のKCGMH-TW(Kohsiung Chang Gung Memorial Hospital)からの臨床コホートによって実証される。
論文 参考訳(メタデータ) (2021-04-06T06:30:15Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。