論文の概要: UGGNet: Bridging U-Net and VGG for Advanced Breast Cancer Diagnosis
- arxiv url: http://arxiv.org/abs/2401.03173v1
- Date: Sat, 6 Jan 2024 09:28:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 19:58:26.051311
- Title: UGGNet: Bridging U-Net and VGG for Advanced Breast Cancer Diagnosis
- Title(参考訳): UGGNet: 進行乳癌診断のためのブリッジングU-NetとVGG
- Authors: Tran Cao Minh, Nguyen Kim Quoc, Phan Cong Vinh, Dang Nhu Phu, Vuong
Xuan Chi, Ha Minh Tan
- Abstract要約: 乳房超音波画像解析の性能を高めるために,U-NetとVGGアーキテクチャのパワーを組み合わせたUGGNetと呼ばれる新しいモデルを提案する。
モデルのU-Netコンポーネントは病変を正確に分類するのに役立ち、VGGコンポーネントは深い畳み込み層を利用して特徴を抽出する。
UGGNetにおけるこれらの2つのアーキテクチャの融合は、乳房超音波画像の正確な診断のための包括的ソリューションとして、セグメンテーションと特徴表現の両方を最適化することを目的としている。
- 参考スコア(独自算出の注目度): 0.559239450391449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of medical imaging, breast ultrasound has emerged as a crucial
diagnostic tool for early detection of breast cancer. However, the accuracy of
diagnosing the location of the affected area and the extent of the disease
depends on the experience of the physician. In this paper, we propose a novel
model called UGGNet, combining the power of the U-Net and VGG architectures to
enhance the performance of breast ultrasound image analysis. The U-Net
component of the model helps accurately segment the lesions, while the VGG
component utilizes deep convolutional layers to extract features. The fusion of
these two architectures in UGGNet aims to optimize both segmentation and
feature representation, providing a comprehensive solution for accurate
diagnosis in breast ultrasound images. Experimental results have demonstrated
that the UGGNet model achieves a notable accuracy of 78.2% on the "Breast
Ultrasound Images Dataset."
- Abstract(参考訳): 画像診断の分野では,乳がん早期発見のための重要な診断ツールとして乳房超音波が登場している。
しかし, 患部の位置と病変の程度を診断する精度は, 医師の経験に依存する。
本稿では,乳房超音波画像解析の性能を高めるために,U-NetとVGGアーキテクチャのパワーを組み合わせたUGGNetと呼ばれる新しいモデルを提案する。
モデルのU-Netコンポーネントは病変を正確に分類するのに役立ち、VGGコンポーネントは深い畳み込み層を利用して特徴を抽出する。
UGGNetにおけるこれらの2つのアーキテクチャの融合は、乳房超音波画像の正確な診断のための包括的なソリューションを提供することを目的としている。
実験の結果、UGGNetモデルは「Breast Ultrasound Images Dataset」で78.2%の精度で達成されている。
関連論文リスト
- Modifying the U-Net's Encoder-Decoder Architecture for Segmentation of Tumors in Breast Ultrasound Images [0.0]
U-Netとエンコーダデコーダアーキテクチャに基づくニューラルネットワーク(NN)を提案する。
我々のネットワーク(CResU-Net)は82.88%、77.5%、90.3%、98.4%のDice類似係数を得た。
論文 参考訳(メタデータ) (2024-09-01T07:47:48Z) - ProsDectNet: Bridging the Gap in Prostate Cancer Detection via
Transrectal B-mode Ultrasound Imaging [2.6024562346319167]
ProsDectNetはBモード超音波で前立腺がんを局在させるマルチタスクディープラーニングアプローチである。
MRI-TRUS 融合生検を施行した289例のコホートを用いて, ProsDectNet の訓練と評価を行った。
以上の結果から,ProsDectNetはコンピュータ支援診断システムとして利用できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-08T19:40:35Z) - High-resolution synthesis of high-density breast mammograms: Application
to improved fairness in deep learning based mass detection [48.88813637974911]
深層学習に基づくコンピュータ支援検出システムは乳癌検出において優れた性能を示した。
高密度の乳房は、高密度の組織がマスを覆ったりシミュレートしたりできるため、検出性能が劣っている。
本研究は,高密度乳房における高密度フルフィールドデジタルマンモグラムを用いた質量検出性能の向上を目的とする。
論文 参考訳(メタデータ) (2022-09-20T15:57:12Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - RCA-IUnet: A residual cross-spatial attention guided inception U-Net
model for tumor segmentation in breast ultrasound imaging [0.6091702876917281]
本稿では,腫瘍セグメンテーションのトレーニングパラメータが最小限に抑えられたRCA-IUnetモデルについて紹介する。
RCA-IUnetモデルは、U-Netトポロジに従い、奥行きの深い分離可能な畳み込みとハイブリッドプール層を持つ。
無関係な特徴を抑え、対象構造に焦点を合わせるために、空間横断型アテンションフィルタが加えられる。
論文 参考訳(メタデータ) (2021-08-05T10:35:06Z) - Act Like a Radiologist: Towards Reliable Multi-view Correspondence
Reasoning for Mammogram Mass Detection [49.14070210387509]
マンモグラム質量検出のための解剖学的グラフ畳み込みネットワーク(AGN)を提案する。
AGNはマンモグラムの質量検出用に調整されており、既存の検出手法を多視点推論能力で実現している。
2つの標準ベンチマークの実験によると、AGNは最先端のパフォーマンスを大幅に上回っている。
論文 参考訳(メタデータ) (2021-05-21T06:48:34Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - Classification of Breast Cancer Lesions in Ultrasound Images by using
Attention Layer and loss Ensembles in Deep Convolutional Neural Networks [0.0]
本稿では,VGG16アーキテクチャーのアテンションモジュールを用いた乳癌病変の分類のための新しい枠組みを提案する。
また,双曲性コサイン損失の二値交互エントロピーと対数の組み合わせである新たなアンサンブル損失関数を提案し,分類病変とそのラベル間のモデル差を改善する。
本研究で提案したモデルは,93%の精度で他の改良VGG16アーキテクチャよりも優れており,乳がん病変の分類のための他の技術フレームワークと競合する結果となった。
論文 参考訳(メタデータ) (2021-02-23T06:49:12Z) - KiU-Net: Towards Accurate Segmentation of Biomedical Images using
Over-complete Representations [59.65174244047216]
本稿では,高次元にデータを投影するオーバーコンプリートアーキテクチャ(Ki-Net)を提案する。
このネットワークは、U-Netで拡張されると、小さな解剖学的ランドマークを分割する場合に大幅に改善される。
早期新生児の2次元超音波による脳解剖学的セグメント化の課題について検討した。
論文 参考訳(メタデータ) (2020-06-08T18:59:24Z) - Gleason Grading of Histology Prostate Images through Semantic
Segmentation via Residual U-Net [60.145440290349796]
前立腺癌の最終診断は、病理学者による前立腺生検におけるGleasonパターンの視覚的検出に基づいている。
コンピュータ支援診断システムは、組織内のがんのパターンを分類し分類することができる。
この研究の方法論的核心は、がん組織を分節できる残留ブロックで修正された画像分割のためのU-Net畳み込みニューラルネットワークである。
論文 参考訳(メタデータ) (2020-05-22T19:49:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。