論文の概要: Transformers Improve Breast Cancer Diagnosis from Unregistered
Multi-View Mammograms
- arxiv url: http://arxiv.org/abs/2206.10096v1
- Date: Tue, 21 Jun 2022 03:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 14:55:55.408084
- Title: Transformers Improve Breast Cancer Diagnosis from Unregistered
Multi-View Mammograms
- Title(参考訳): トランスフォーマーは、未登録マルチビューマンモグラフィーによる乳癌診断を改善する
- Authors: Xuxin Chen, Ke Zhang, Neman Abdoli, Patrik W. Gilley, Ximin Wang, Hong
Liu, Bin Zheng, Yuchen Qiu
- Abstract要約: 我々はマルチビュー・ビジョン・トランスフォーマーのアーキテクチャを活用し、同一患者から複数のマンモグラフィーの長距離関係を1回の検査で捉えた。
我々の4画像(2面2面)トランスフォーマーモデルでは、ROC曲線下(AUC = 0.818)でのケース分類が可能である。
また、AUCは0.724(CCビュー)と0.769(MLOビュー)の2つの片面2面モデルより優れている。
- 参考スコア(独自算出の注目度): 6.084894198369222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional neural networks (CNNs) have been widely used in various
medical imaging tasks. However, due to the intrinsic locality of convolution
operation, CNNs generally cannot model long-range dependencies well, which are
important for accurately identifying or mapping corresponding breast lesion
features computed from unregistered multiple mammograms. This motivates us to
leverage the architecture of Multi-view Vision Transformers to capture
long-range relationships of multiple mammograms from the same patient in one
examination. For this purpose, we employ local Transformer blocks to separately
learn patch relationships within four mammograms acquired from two-view
(CC/MLO) of two-side (right/left) breasts. The outputs from different views and
sides are concatenated and fed into global Transformer blocks, to jointly learn
patch relationships between four images representing two different views of the
left and right breasts. To evaluate the proposed model, we retrospectively
assembled a dataset involving 949 sets of mammograms, which include 470
malignant cases and 479 normal or benign cases. We trained and evaluated the
model using a five-fold cross-validation method. Without any arduous
preprocessing steps (e.g., optimal window cropping, chest wall or pectoral
muscle removal, two-view image registration, etc.), our four-image
(two-view-two-side) Transformer-based model achieves case classification
performance with an area under ROC curve (AUC = 0.818), which significantly
outperforms AUC = 0.784 achieved by the state-of-the-art multi-view CNNs (p =
0.009). It also outperforms two one-view-two-side models that achieve AUC of
0.724 (CC view) and 0.769 (MLO view), respectively. The study demonstrates the
potential of using Transformers to develop high-performing computer-aided
diagnosis schemes that combine four mammograms.
- Abstract(参考訳): 深層畳み込みニューラルネットワーク(CNN)は様々な医療画像処理に広く用いられている。
しかし、畳み込み手術の本態的な局所性のため、CNNは一般的に長距離依存をうまくモデル化することができず、登録されていない複数のマンモグラフィーから計算した乳腺病変の特徴を正確に同定およびマッピングするために重要である。
これにより、マルチビュー・ビジョン・トランスフォーマーのアーキテクチャを活用し、同じ患者から複数のマンモグラムの長距離関係を1回の検査で捉えることができる。
そこで我々はローカルトランスフォーマーブロックを用いて,両側(左右)乳房の2ビュー(CC/MLO)から取得した4つのマンモグラム内のパッチ関係を個別に学習する。
異なるビューとサイドからの出力を連結してグローバルトランスフォーマーブロックに供給し、左右の2つの異なるビューを表す4つのイメージのパッチ関係を共同で学習する。
提案モデルを評価するために, 悪性470例, 正常479例, 良性479例を含む949セットのマンモグラフィーを含むデータセットを逆向きに収集した。
5倍のクロスバリデーション法を用いてモデルを訓練・評価した。
最適ウィンドウトリミング,胸壁,胸部筋除去,2ビュー画像登録など)の困難な前処理ステップがなければ,我々の4画像(2ビュー2サイド)トランスフォーマーベースモデルは,OC曲線以下の領域(AUC = 0.818)でケース分類性能を達成し,最先端のマルチビューCNN(p = 0.009)によりAUC = 0.784を著しく上回った。
また、それぞれ0.724(ccビュー)と0.769(mloビュー)の2つの1ビューツーサイドモデルよりも優れている。
本研究は,4つのマンモグラムを組み合わせた高性能なコンピュータ支援診断手法の開発にトランスフォーマーを用いることの可能性を示す。
関連論文リスト
- Mammo-CLIP: Leveraging Contrastive Language-Image Pre-training (CLIP) for Enhanced Breast Cancer Diagnosis with Multi-view Mammography [6.537171378333966]
Mammo-CLIPはマルチビューマンモグラムと対応する単純なテキストを処理する最初のマルチモーダルフレームワークである。
学習効率を向上させるため、CLIPイメージと微調整パラメータ用のテキストエンコーダにプラグアンドプレイアダプタが加えられている。
その結果,マンモCLIPはAUCの最先端のクロスビュートランスよりも優れていた。
論文 参考訳(メタデータ) (2024-04-24T16:07:31Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - TransReg: Cross-transformer as auto-registration module for multi-view
mammogram mass detection [0.0]
頭蓋頭蓋骨(CC)と側方斜視(MLO)の関連性を利用したCADシステムであるTransRegを提案する。
このシステムは、マス検出問題に対して、シアム高速RCNNネットワークによって抽出された関心領域(RoIs)の関係をモデル化するクロストランスフォーマーを含む。
我々の研究は、クロストランスフォーマーをオブジェクト検出フレームワークに統合して、異方性ビュー間の関係をモデル化した初めてのものです。
論文 参考訳(メタデータ) (2023-11-09T08:08:12Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Multi-View Hypercomplex Learning for Breast Cancer Screening [7.147856898682969]
伝統的に、乳がん分類のための深層学習法は単一視点解析を行う。
放射線科医は マンモグラフィー検査を構成する4つのビューを 同時に分析します
パラメータ化ハイパープレックスニューラルネットワークを用いた多視点乳がん分類法を提案する。
論文 参考訳(メタデータ) (2022-04-12T13:32:31Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - Breast Cancer Diagnosis in Two-View Mammography Using End-to-End Trained
EfficientNet-Based Convolutional Network [0.0]
深層畳み込みニューラルネットワークは、ヒトの専門家と同等またはそれ以上の性能の乳がんをマンモグラムで診断する。
本稿では,2つの転帰学習から成る最良技術について紹介する。
論文 参考訳(メタデータ) (2021-10-01T22:09:59Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z) - Segmentation of Cellular Patterns in Confocal Images of Melanocytic
Lesions in vivo via a Multiscale Encoder-Decoder Network (MED-Net) [2.0487455621441377]
マルチスケールデコーダネットワーク(MED-Net)は,パターンのクラスに定量的なラベル付けを行う。
メラノサイト病変の117個の反射共焦点顕微鏡(RCM)モザイクの非重畳分割について,本モデルを訓練・試験した。
論文 参考訳(メタデータ) (2020-01-03T22:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。