論文の概要: Integrating AI for Human-Centric Breast Cancer Diagnostics: A Multi-Scale and Multi-View Swin Transformer Framework
- arxiv url: http://arxiv.org/abs/2503.13309v1
- Date: Mon, 17 Mar 2025 15:48:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:33:13.974903
- Title: Integrating AI for Human-Centric Breast Cancer Diagnostics: A Multi-Scale and Multi-View Swin Transformer Framework
- Title(参考訳): 人間中心乳がん診断のためのAIの統合:マルチスケール・マルチビュースウィントランスフレームワーク
- Authors: Farnoush Bayatmakou, Reza Taleei, Milad Amir Toutounchian, Arash Mohammadi,
- Abstract要約: この論文は、乳癌の診断を強化するためのヒューマン・センターワークフローにおけるAIの統合に焦点を当てている。
診断の堅牢性と精度を高めるハイブリッド・マルチスケール・マルチビューSwin Transformerベースのフレームワーク(MSMV-Swin)を提案する。
- 参考スコア(独自算出の注目度): 5.211860566766601
- License:
- Abstract: Despite advancements in Computer-Aided Diagnosis (CAD) systems, breast cancer remains one of the leading causes of cancer-related deaths among women worldwide. Recent breakthroughs in Artificial Intelligence (AI) have shown significant promise in development of advanced Deep Learning (DL) architectures for breast cancer diagnosis through mammography. In this context, the paper focuses on the integration of AI within a Human-Centric workflow to enhance breast cancer diagnostics. Key challenges are, however, largely overlooked such as reliance on detailed tumor annotations and susceptibility to missing views, particularly during test time. To address these issues, we propose a hybrid, multi-scale and multi-view Swin Transformer-based framework (MSMV-Swin) that enhances diagnostic robustness and accuracy. The proposed MSMV-Swin framework is designed to work as a decision-support tool, helping radiologists analyze multi-view mammograms more effectively. More specifically, the MSMV-Swin framework leverages the Segment Anything Model (SAM) to isolate the breast lobe, reducing background noise and enabling comprehensive feature extraction. The multi-scale nature of the proposed MSMV-Swin framework accounts for tumor-specific regions as well as the spatial characteristics of tissues surrounding the tumor, capturing both localized and contextual information. The integration of contextual and localized data ensures that MSMV-Swin's outputs align with the way radiologists interpret mammograms, fostering better human-AI interaction and trust. A hybrid fusion structure is then designed to ensure robustness against missing views, a common occurrence in clinical practice when only a single mammogram view is available.
- Abstract(参考訳): コンピュータ支援診断システム(CAD)の進歩にもかかわらず、乳がんは世界中で女性のがん関連死亡の原因の1つとなっている。
近年の人工知能 (AI) の進歩は, 乳がん診断のための高度なディープラーニング (DL) アーキテクチャの開発において, マンモグラフィーによる大きな可能性を秘めている。
この文脈において、本論文は、乳癌の診断を強化するためのヒューマン・センターワークフローにおけるAIの統合に焦点を当てている。
しかし、重要な課題は、詳細な腫瘍アノテーションへの依存や、特にテスト期間中に、見落とされたビューへの感受性など、ほとんど見落とされたことである。
これらの課題に対処するために,診断の堅牢性と精度を高めるハイブリッド・マルチスケール・マルチビューSwin Transformerベースのフレームワーク(MSMV-Swin)を提案する。
提案したMSMV-Swinフレームワークは,放射線技師がマルチビューマンモグラフィーをより効率的に分析するのに役立つ,意思決定支援ツールとして機能するように設計されている。
より具体的には、MSMV-SwinフレームワークはSegment Anything Model (SAM)を活用して乳葉を分離し、バックグラウンドノイズを低減し、包括的な特徴抽出を可能にする。
提案されたMSMV-Swinフレームワークのマルチスケールな性質は、腫瘍特異的領域だけでなく、腫瘍を取り巻く組織の空間的特性も考慮し、局所情報と文脈情報の両方を捉えている。
文脈データと局所データの統合により、MSMV-Swinの出力は、放射線学者がマンモグラフィーを解釈する方法と一致し、より良い人間とAIの相互作用と信頼を育む。
複合核融合構造は、欠落したビューに対して堅牢性を確保するために設計され、単一のマンモグラムビューのみが利用可能である場合、臨床実践でよく見られる。
関連論文リスト
- Augmented Intelligence for Multimodal Virtual Biopsy in Breast Cancer Using Generative Artificial Intelligence [0.8714814768600079]
Full-Field Digital Mammography (FFDM) は乳がん検診における主要な画像モダリティである。
第2レベルのイメージング技術であるCESMは、腫瘍検出の精度を向上する。
CESMは通常、特定の症例に予約されており、多くの患者はFFDMのみに頼っている。
仮想生検のためのマルチモーダル・マルチビュー深層学習手法を提案する。
論文 参考訳(メタデータ) (2025-01-31T14:41:17Z) - Enhanced MRI Representation via Cross-series Masking [48.09478307927716]
自己教師型でMRI表現を効果的に学習するためのクロスシリーズ・マスキング(CSM)戦略
メソッドは、パブリックデータセットと社内データセットの両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-10T10:32:09Z) - Advancing Histopathology-Based Breast Cancer Diagnosis: Insights into Multi-Modality and Explainability [2.8145472964232137]
マルチモーダル技術を用いて、画像データと非画像データを統合することで、乳癌の診断における変革的な進歩を示す。
本稿では,マルチモーダルデータを用いて診断精度,臨床信頼度,患者のエンゲージメントを高めるための説明性を強調する。
論文 参考訳(メタデータ) (2024-06-07T19:23:22Z) - Breast Cancer Diagnosis: A Comprehensive Exploration of Explainable Artificial Intelligence (XAI) Techniques [38.321248253111776]
乳がんの診断・診断における説明可能な人工知能(XAI)技術の適用について検討する。
複雑なAIモデルと実用的な医療アプリケーションの間のギャップを埋めることにおけるXAIの可能性を強調することを目的としている。
論文 参考訳(メタデータ) (2024-06-01T18:50:03Z) - Intelligent Breast Cancer Diagnosis with Heuristic-assisted
Trans-Res-U-Net and Multiscale DenseNet using Mammogram Images [0.0]
乳癌(BC)は、女性のがん関連死亡率に大きく寄与する。
悪性の腫瘤を正確に識別することは 依然として困難です
マンモグラフィ画像を用いたBCGスクリーニングのための新しい深層学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-30T10:22:14Z) - Post-Hoc Explainability of BI-RADS Descriptors in a Multi-task Framework
for Breast Cancer Detection and Segmentation [48.08423125835335]
MT-BI-RADSは乳房超音波(BUS)画像における腫瘍検出のための新しい深層学習手法である。
放射線科医が腫瘍の悪性度を予測するための意思決定プロセスを理解するための3つのレベルの説明を提供する。
論文 参考訳(メタデータ) (2023-08-27T22:07:42Z) - MammoDG: Generalisable Deep Learning Breaks the Limits of Cross-Domain
Multi-Center Breast Cancer Screening [4.587250201300601]
マンモグラフィーは高い変動性とマンモグラフィーのパターンのために課題を提起する。
MammoDGはクロスドメインマルチセンターマンモグラフィーデータの汎用的で信頼性の高い解析のための新しいディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2023-08-02T10:10:22Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - Act Like a Radiologist: Towards Reliable Multi-view Correspondence
Reasoning for Mammogram Mass Detection [49.14070210387509]
マンモグラム質量検出のための解剖学的グラフ畳み込みネットワーク(AGN)を提案する。
AGNはマンモグラムの質量検出用に調整されており、既存の検出手法を多視点推論能力で実現している。
2つの標準ベンチマークの実験によると、AGNは最先端のパフォーマンスを大幅に上回っている。
論文 参考訳(メタデータ) (2021-05-21T06:48:34Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。