論文の概要: SFUSNet: A Spatial-Frequency domain-based Multi-branch Network for
diagnosis of Cervical Lymph Node Lesions in Ultrasound Images
- arxiv url: http://arxiv.org/abs/2308.16738v2
- Date: Thu, 5 Oct 2023 02:06:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 21:43:10.201581
- Title: SFUSNet: A Spatial-Frequency domain-based Multi-branch Network for
diagnosis of Cervical Lymph Node Lesions in Ultrasound Images
- Title(参考訳): 超音波画像における頸部リンパ節病変診断のための空間周波数領域ベースマルチブランチネットワークSFUSNet
- Authors: Yubiao Yue, Jun Xue, Haihua Liang, Bingchun Luo, Zhenzhang Li
- Abstract要約: 本研究の目的は,深層学習モデルを用いて超音波画像の頸部リンパ節病変を診断することである。
今回, 正常リンパ節, 良性リンパ節病変, 悪性原発リンパ節病変, 悪性転移リンパ節病変を含む3392例の頸部超音波検査を行った。
その結果、SFUSNetは最先端のモデルであり、92.89%の精度が得られることがわかった。
- 参考スコア(独自算出の注目度): 0.2083256186573374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Booming deep learning has substantially improved the diagnosis for diverse
lesions in ultrasound images, but a conspicuous research gap concerning
cervical lymph node lesions still remains. The objective of this work is to
diagnose cervical lymph node lesions in ultrasound images by leveraging a deep
learning model. To this end, we first collected 3392 cervical ultrasound images
containing normal lymph nodes, benign lymph node lesions, malignant primary
lymph node lesions, and malignant metastatic lymph node lesions. Given that
ultrasound images are generated by the reflection and scattering of sound waves
across varied bodily tissues, we proposed the Conv-FFT Block. It integrates
convolutional operations with the fast Fourier transform to more astutely model
the images. Building upon this foundation, we designed a novel architecture,
named SFUSNet. SFUSNet not only discerns variances in ultrasound images from
the spatial domain but also adeptly captures micro-structural alterations
across various lesions in the frequency domain. To ascertain the potential of
SFUSNet, we benchmarked it against 12 popular architectures through five-fold
cross-validation. The results show that SFUSNet is the state-of-the-art model
and can achieve 92.89% accuracy. Moreover, its average precision, average
sensitivity and average specificity for four types of lesions achieve 90.46%,
89.95% and 97.49%, respectively.
- Abstract(参考訳): 深層学習は超音波画像の多彩な病変の診断を大幅に改善させたが、頸部リンパ節病変に関する顕著な研究ギャップは依然として残っている。
本研究の目的は,深層学習モデルを用いて超音波画像の頸部リンパ節病変を診断することである。
この目的のために, 正常リンパ節, 良性リンパ節病変, 悪性原発リンパ節病変, 転移性リンパ節病変を含む3392個の頸部超音波像を採取した。
超音波画像が様々な生体組織にまたがる音波の反射・散乱によって生成されることを考慮し,conv-fftブロックを提案した。
畳み込み操作と高速フーリエ変換を統合し、画像をより正確にモデル化する。
この基盤に基づいて、SFUSNetという新しいアーキテクチャを設計しました。
SFUSNetは、空間領域から超音波画像のばらつきを識別するだけでなく、周波数領域の様々な病変の微構造変化を十分に捉えている。
SFUSNetの可能性を確認するため、私たちは5倍のクロスバリデーションを通じて、12のポピュラーアーキテクチャに対してベンチマークを行った。
その結果、SFUSNetは最先端のモデルであり、92.89%の精度が得られることがわかった。
さらに、4種類の病変の平均精度、平均感度、平均特異度はそれぞれ90.46%、89.95%、97.49%である。
関連論文リスト
- Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - SDF-Net: A Hybrid Detection Network for Mediastinal Lymph Node Detection on Contrast CT Images [38.69240497671607]
リンパ節を効果的に検出するSwing-Det Fusion Network (SDF-Net)を提案する。
SDF-Netはセグメンテーションと検出の両方の機能を統合し、さまざまな形状と大きさのリンパ節の検出能力を向上する。
論文 参考訳(メタデータ) (2024-09-10T08:27:44Z) - Few Shot Learning for the Classification of Confocal Laser
Endomicroscopy Images of Head and Neck Tumors [0.33384431000910975]
CLE画像の解剖学的領域への一般化に向けた4つの一般的な数個のショット学習手法の評価を行った。
5例の鼻腔腫瘍 (SNT) 像と, 11例の声帯腫瘍 (VF) 像について, クロスバリデーション法を用いて検討した。
論文 参考訳(メタデータ) (2023-11-13T10:17:00Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - COVID-Net USPro: An Open-Source Explainable Few-Shot Deep Prototypical
Network to Monitor and Detect COVID-19 Infection from Point-of-Care
Ultrasound Images [66.63200823918429]
COVID-Net USProは、最小限の超音波画像から高精度で新型コロナウイルス陽性の患者を監視し、検出する。
ネットワーク全体では99.65%の精度、99.7%のリコール、99.67%の精度で5発の撮影で訓練された。
論文 参考訳(メタデータ) (2023-01-04T16:05:51Z) - Image translation of Ultrasound to Pseudo Anatomical Display Using
Artificial Intelligence [0.0]
CycleGANは、各ドメインプロパティを個別に学習し、クロスドメインサイクルの一貫性を強制するために使用された。
生成された擬似解剖画像は、より明確な境界定義と明瞭なコントラストで、病変の視覚的識別を改善する。
論文 参考訳(メタデータ) (2022-02-16T13:31:49Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - An Approach Towards Physics Informed Lung Ultrasound Image Scoring
Neural Network for Diagnostic Assistance in COVID-19 [0.0]
肺超音波(LUS)における胸膜下領域の音響伝搬に基づく特徴抽出のための新しいアプローチが提示された。
LUSNetと呼ばれるニューラルネットワークは、LUSイメージを、新型コロナウイルスの進行を追跡するために、肺感染症の重症度の異なる5つのクラスに分類するように訓練されている。
新型コロナウイルスの患者10名に対する全回復期間に対するLUS画像のアプローチに関する詳細な分析では、平均5倍のクロスバリデーション精度、感度、特異性はそれぞれ5000コマで97%、93%、98%となっている。
論文 参考訳(メタデータ) (2021-06-13T13:01:53Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - Computer-aided Tumor Diagnosis in Automated Breast Ultrasound using 3D
Detection Network [18.31577982955252]
良性腫瘍145例,悪性腫瘍273例の418例を対象に,本ネットワークの有効性を検証した。
実験により, ネットワークの感度は97.66%, 1.23偽陽性 (FPs) であり, 曲線(AUC) 値0.8720以下の領域を有することがわかった。
論文 参考訳(メタデータ) (2020-07-31T15:25:07Z) - Gleason Grading of Histology Prostate Images through Semantic
Segmentation via Residual U-Net [60.145440290349796]
前立腺癌の最終診断は、病理学者による前立腺生検におけるGleasonパターンの視覚的検出に基づいている。
コンピュータ支援診断システムは、組織内のがんのパターンを分類し分類することができる。
この研究の方法論的核心は、がん組織を分節できる残留ブロックで修正された画像分割のためのU-Net畳み込みニューラルネットワークである。
論文 参考訳(メタデータ) (2020-05-22T19:49:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。