論文の概要: Deep Learning-Based Breast Cancer Detection in Mammography: A Multi-Center Validation Study in Thai Population
- arxiv url: http://arxiv.org/abs/2506.03177v1
- Date: Thu, 29 May 2025 11:11:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:13.910444
- Title: Deep Learning-Based Breast Cancer Detection in Mammography: A Multi-Center Validation Study in Thai Population
- Title(参考訳): マンモグラフィーにおける深層学習による乳癌検出 : タイ人人口における多施設検証研究
- Authors: Isarun Chamveha, Supphanut Chaiyungyuen, Sasinun Worakriangkrai, Nattawadee Prasawang, Warasinee Chaisangmongkon, Pornpim Korpraphong, Voraparee Suvannarerg, Shanigarn Thiravit, Chalermdej Kannawat, Kewalin Rungsinaporn, Suwara Issaragrisil, Payia Chadbunchachai, Pattiya Gatechumpol, Chawiporn Muktabhant, Patarachai Sereerat,
- Abstract要約: EfficientNetV2アーキテクチャを改良した乳房がん検出のための深層学習システムの開発
モデルはタイの主要な医療センターのマンモグラムで訓練され、3つの異なるデータセットで検証された。
がん検出では、それぞれのデータセットで0.89、0.96、0.94のAUROCを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents a deep learning system for breast cancer detection in mammography, developed using a modified EfficientNetV2 architecture with enhanced attention mechanisms. The model was trained on mammograms from a major Thai medical center and validated on three distinct datasets: an in-domain test set (9,421 cases), a biopsy-confirmed set (883 cases), and an out-of-domain generalizability set (761 cases) collected from two different hospitals. For cancer detection, the model achieved AUROCs of 0.89, 0.96, and 0.94 on the respective datasets. The system's lesion localization capability, evaluated using metrics including Lesion Localization Fraction (LLF) and Non-Lesion Localization Fraction (NLF), demonstrated robust performance in identifying suspicious regions. Clinical validation through concordance tests showed strong agreement with radiologists: 83.5% classification and 84.0% localization concordance for biopsy-confirmed cases, and 78.1% classification and 79.6% localization concordance for out-of-domain cases. Expert radiologists' acceptance rate also averaged 96.7% for biopsy-confirmed cases, and 89.3% for out-of-domain cases. The system achieved a System Usability Scale score of 74.17 for source hospital, and 69.20 for validation hospitals, indicating good clinical acceptance. These results demonstrate the model's effectiveness in assisting mammogram interpretation, with the potential to enhance breast cancer screening workflows in clinical practice.
- Abstract(参考訳): 本研究は,乳がん検出のための深層学習システムであるEfficientNetV2アーキテクチャを改良し,注意機構を増強した。
このモデルはタイの主要な医療センターのマンモグラムに基づいて訓練され、ドメイン内テストセット(9,421例)、バイオプシー確認セット(883例)、および2つの異なる病院から収集されたドメイン外の一般性セット(761例)の3つの異なるデータセットで検証された。
がん検出では、それぞれのデータセットで0.89、0.96、0.94のAUROCを達成した。
病変の局所化能力は, LLF (Lesion Localization Fraction) やNon-Lesion Localization Fraction (NLF) などの指標を用いて評価され, 不審領域の同定において頑健な性能を示した。
バイオプシー確認症例の83.5%の分類と84.0%の局在一致、78.1%の分類と79.6%の領域外症例の局在一致である。
放射線技師の受け入れ率は生検で96.7%、領域外では89.3%であった。
このシステムは、ソース病院で74.17点、バリデーション病院で69.20点のシステムユーザビリティ尺度のスコアを達成し、良好な臨床受け入れを示した。
これらの結果は,乳がん検診のワークフローを臨床で向上させる可能性を秘め,マンモグラムの解釈を支援するモデルの有効性を示すものである。
関連論文リスト
- Explainable Anatomy-Guided AI for Prostate MRI: Foundation Models and In Silico Clinical Trials for Virtual Biopsy-based Risk Assessment [3.5408411348831232]
MRIによる前立腺癌(PCa)のリスク階層化のための,完全に自動化された,解剖学的に指導されたディープラーニングパイプラインを提案する。
パイプラインは、前立腺とそのゾーンを軸方向のT2強調MRI上にセグメント化するためのnnU-Netモジュール、オプションの解剖学的先行と臨床データで3Dパッチに微調整されたDiceedPT Swin Transformer基盤モデルに基づく分類モジュール、決定駆動画像領域をローカライズする反ファクトなヒートマップを生成するVAE-GANフレームワークの3つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2025-05-23T14:40:09Z) - A Clinician-Friendly Platform for Ophthalmic Image Analysis Without Technical Barriers [51.45596445363302]
GlobeReadyはクリニックフレンドリーなAIプラットフォームで、再トレーニング、微調整、技術専門知識の必要性なしに、基礎疾患の診断を可能にする。
光コヒーレンス・トモグラフィー(OCT)スキャンを用いて、カラー・ファンドス写真(CPF)を用いた11のファンドス病(93.9-98.5%)と15のファンドス病(87.2-92.7%)の精度を示した。
トレーニングなしのローカル機能拡張を活用することで、GlobeReadyプラットフォームは、センターや人口間のドメインシフトを効果的に軽減する。
論文 参考訳(メタデータ) (2025-04-22T14:17:22Z) - Subgroup Performance of a Commercial Digital Breast Tomosynthesis Model for Breast Cancer Detection [5.089670339445636]
本研究では,163,449検診大振り返りコホートにおけるLunit INSIGHTモデルの粒度評価を行った。
成績は人口統計学的に良好であったが,非浸潤性癌では有意に低い成績を示した。
論文 参考訳(メタデータ) (2025-03-17T17:17:36Z) - UNet++ and LSTM combined approach for Breast Ultrasound Image Segmentation [0.0]
この研究は、LSTM層と自己保持機構を統合することで、UNet++アーキテクチャを充実させようとしている。
GTデータセットによるBUSIのデータ増大による提案手法の融合により、精度98.88%、特異度99.53%、精度95.34%、感度91.20%、F1スコア93.74、Dice係数92.74%が達成された。
論文 参考訳(メタデータ) (2024-12-07T08:39:31Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.76736949127792]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - A new methodology to predict the oncotype scores based on
clinico-pathological data with similar tumor profiles [0.0]
Oncotype DX (ODX) は乳がんの分子検査である。
本研究の目的は,医師の意思決定を支援する新しい手法を提案することである。
論文 参考訳(メタデータ) (2023-03-13T10:08:13Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Deep Learning-based Computational Pathology Predicts Origins for Cancers
of Unknown Primary [2.645435564532842]
原発不明癌 (CUP) は腫瘍由来の原発性解剖学的部位を特定できない診断群である。
最近の研究は、腫瘍原点の同定にゲノム学と転写学を使うことに重点を置いている。
深層学習に基づくCUPの差分診断が可能な計算病理アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-24T17:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。