論文の概要: Segmentation of Infrared Breast Images Using MultiResUnet Neural Network
- arxiv url: http://arxiv.org/abs/2011.00376v1
- Date: Sat, 31 Oct 2020 22:15:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 05:13:54.249505
- Title: Segmentation of Infrared Breast Images Using MultiResUnet Neural Network
- Title(参考訳): マルチResUnetニューラルネットワークを用いた赤外乳房画像の分割
- Authors: Ange Lou, Shuyue Guan, Nada Kamona, Murray Loew
- Abstract要約: 乳がん検診における非侵襲的乳房造影剤として赤外線サーモグラフィーを検討中である。
自己エンコーダ様畳み込み畳み込みニューラルネットワーク(C-DCNN)は、以前の研究で乳房領域を自動的にIR画像に分割するために応用された。
本研究では,現在最先端のディープラーニングセグメンテーションモデルであるMultiResUnetを適用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breast cancer is the second leading cause of death for women in the U.S.
Early detection of breast cancer is key to higher survival rates of breast
cancer patients. We are investigating infrared (IR) thermography as a
noninvasive adjunct to mammography for breast cancer screening. IR imaging is
radiation-free, pain-free, and non-contact. Automatic segmentation of the
breast area from the acquired full-size breast IR images will help limit the
area for tumor search, as well as reduce the time and effort costs of manual
segmentation. Autoencoder-like convolutional and deconvolutional neural
networks (C-DCNN) had been applied to automatically segment the breast area in
IR images in previous studies. In this study, we applied a state-of-the-art
deep-learning segmentation model, MultiResUnet, which consists of an encoder
part to capture features and a decoder part for precise localization. It was
used to segment the breast area by using a set of breast IR images, collected
in our pilot study by imaging breast cancer patients and normal volunteers with
a thermal infrared camera (N2 Imager). The database we used has 450 images,
acquired from 14 patients and 16 volunteers. We used a thresholding method to
remove interference in the raw images and remapped them from the original
16-bit to 8-bit, and then cropped and segmented the 8-bit images manually.
Experiments using leave-one-out cross-validation (LOOCV) and comparison with
the ground-truth images by using Tanimoto similarity show that the average
accuracy of MultiResUnet is 91.47%, which is about 2% higher than that of the
autoencoder. MultiResUnet offers a better approach to segment breast IR images
than our previous model.
- Abstract(参考訳): 乳がんの早期発見は、乳がん患者の生存率を高める鍵となる。
乳がん検診における非侵襲的乳房造影剤として赤外線サーモグラフィーを検討中である。
赤外線イメージングは無放射線、無痛、非接触である。
取得したフルサイズの胸部ir画像からの乳房領域の自動分割は、腫瘍検索の領域を制限し、手作業によるセグメント化の時間と労力を削減できる。
自己エンコーダ様畳み込み畳み込みニューラルネットワーク(C-DCNN)を用いて、以前の研究で乳房領域を自動的にIR画像に分割した。
本研究では,特徴をキャプチャするエンコーダ部と正確な位置推定のためのデコーダ部からなる,最先端のディープラーニングセグメンテーションモデルmultiresunetを適用した。
乳がん患者と健常者のサーマル赤外線カメラ(n2 imager)を用いたパイロット研究で収集した胸部赤外線画像を用いて乳房領域を分割した。
データベースには14人の患者と16人のボランティアから得られた450枚の画像があります。
しきい値法を用いて原画像の干渉を除去し、元の16ビットから8ビットに再マップし、8ビット画像を手作業で切り抜いた。
タニモト類似度を用いて,LOOCV(Left-one-out Cross-validation)を用いた実験を行った結果,MultiResUnetの平均精度は91.47%であり,オートエンコーダよりも約2%高いことがわかった。
MultiResUnetは、我々の以前のモデルよりも、乳房のIR画像を分割するためのより良いアプローチを提供する。
関連論文リスト
- Computer Aided Detection and Classification of mammograms using Convolutional Neural Network [0.0]
乳癌は、肺癌に次いで、女性の間で最も大きな死因の1つである。
ディープラーニング(Deep Learning)またはニューラルネットワーク(Neural Network)は、正常な乳房の識別と不規則な乳房の識別に使用できる手法の1つである。
CNNMデータセットは、正常な460枚の画像と異常な乳房の920枚の画像で使用されている。
論文 参考訳(メタデータ) (2024-09-04T03:42:27Z) - Breast cancer detection using deep learning [0.0]
本稿では,マイクロ波イメージング画像の再構成画像から乳がんを検出するための深層学習モデルを提案する。
NASNetLargeは、88.41%、27.82%の精度でCNNモデルに使用できる最高のアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-20T15:22:12Z) - Comparing Results of Thermographic Images Based Diagnosis for Breast
Diseases [0.0]
乳房疾患の診断における赤外線画像の有用性について検討した。
我々はPROENG(Pro Engenharia)公開データベースから,lO2 IR単一乳房画像を用いた。
これらの画像は、UFPE(Universidade Federal de Pernambuco)病院から収集された。
論文 参考訳(メタデータ) (2022-08-30T17:22:52Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Deep Integrated Pipeline of Segmentation Leading to Classification for
Automated Detection of Breast Cancer from Breast Ultrasound Images [0.0]
提案フレームワークは,超音波画像の前処理をSLIC(Simple Linear Iterative Clustering)と統合し,乳房超音波画像の複雑なアーティファクトに対処する。
提案した自動パイプラインは、乳がんをより正確かつタイムリーに診断する医療従事者を支援するために効果的に実装することができる。
論文 参考訳(メタデータ) (2021-10-26T20:42:39Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - Multi-Task Driven Explainable Diagnosis of COVID-19 using Chest X-ray
Images [61.24431480245932]
COVID-19 Multi-Task Networkは、新型コロナウイルススクリーニングのためのエンドツーエンドネットワークである。
我々は,ChestXray-14,CheXpertおよび統合型COVID-19データセットから採取した9000個の前頭胸部X線写真から肺領域を手動で注釈した。
このデータベースは研究コミュニティに公開されます。
論文 参考訳(メタデータ) (2020-08-03T12:52:23Z) - Understanding the robustness of deep neural network classifiers for
breast cancer screening [52.50078591615855]
ディープニューラルネットワーク(DNN)は乳がん検診において有望であるが、その入力摂動に対する堅牢性は臨床的に実装される前によりよく理解する必要がある。
放射線技師レベルのマンモグラム画像分類器の4種類の入力摂動に対する感度を測定した。
また,低域通過フィルタの効果について詳細な解析を行い,臨床的に有意な特徴の視認性を低下させることを示した。
論文 参考訳(メタデータ) (2020-03-23T01:26:36Z) - Breast Cancer Detection Using Convolutional Neural Networks [0.0]
エチオピアでは女性がん患者の34%を占める乳がんが一般的である。
深層学習技術は医療画像分析の分野に革命をもたらしている。
本モデルは,マンモグラフィ(MG)画像において,腫瘤領域を検出し,良性または悪性の異常に分類する。
論文 参考訳(メタデータ) (2020-03-17T19:41:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。