論文の概要: Transformers Improve Breast Cancer Diagnosis from Unregistered
Multi-View Mammograms
- arxiv url: http://arxiv.org/abs/2206.10096v1
- Date: Tue, 21 Jun 2022 03:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 14:55:55.408084
- Title: Transformers Improve Breast Cancer Diagnosis from Unregistered
Multi-View Mammograms
- Title(参考訳): トランスフォーマーは、未登録マルチビューマンモグラフィーによる乳癌診断を改善する
- Authors: Xuxin Chen, Ke Zhang, Neman Abdoli, Patrik W. Gilley, Ximin Wang, Hong
Liu, Bin Zheng, Yuchen Qiu
- Abstract要約: 我々はマルチビュー・ビジョン・トランスフォーマーのアーキテクチャを活用し、同一患者から複数のマンモグラフィーの長距離関係を1回の検査で捉えた。
我々の4画像(2面2面)トランスフォーマーモデルでは、ROC曲線下(AUC = 0.818)でのケース分類が可能である。
また、AUCは0.724(CCビュー)と0.769(MLOビュー)の2つの片面2面モデルより優れている。
- 参考スコア(独自算出の注目度): 6.084894198369222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional neural networks (CNNs) have been widely used in various
medical imaging tasks. However, due to the intrinsic locality of convolution
operation, CNNs generally cannot model long-range dependencies well, which are
important for accurately identifying or mapping corresponding breast lesion
features computed from unregistered multiple mammograms. This motivates us to
leverage the architecture of Multi-view Vision Transformers to capture
long-range relationships of multiple mammograms from the same patient in one
examination. For this purpose, we employ local Transformer blocks to separately
learn patch relationships within four mammograms acquired from two-view
(CC/MLO) of two-side (right/left) breasts. The outputs from different views and
sides are concatenated and fed into global Transformer blocks, to jointly learn
patch relationships between four images representing two different views of the
left and right breasts. To evaluate the proposed model, we retrospectively
assembled a dataset involving 949 sets of mammograms, which include 470
malignant cases and 479 normal or benign cases. We trained and evaluated the
model using a five-fold cross-validation method. Without any arduous
preprocessing steps (e.g., optimal window cropping, chest wall or pectoral
muscle removal, two-view image registration, etc.), our four-image
(two-view-two-side) Transformer-based model achieves case classification
performance with an area under ROC curve (AUC = 0.818), which significantly
outperforms AUC = 0.784 achieved by the state-of-the-art multi-view CNNs (p =
0.009). It also outperforms two one-view-two-side models that achieve AUC of
0.724 (CC view) and 0.769 (MLO view), respectively. The study demonstrates the
potential of using Transformers to develop high-performing computer-aided
diagnosis schemes that combine four mammograms.
- Abstract(参考訳): 深層畳み込みニューラルネットワーク(CNN)は様々な医療画像処理に広く用いられている。
しかし、畳み込み手術の本態的な局所性のため、CNNは一般的に長距離依存をうまくモデル化することができず、登録されていない複数のマンモグラフィーから計算した乳腺病変の特徴を正確に同定およびマッピングするために重要である。
これにより、マルチビュー・ビジョン・トランスフォーマーのアーキテクチャを活用し、同じ患者から複数のマンモグラムの長距離関係を1回の検査で捉えることができる。
そこで我々はローカルトランスフォーマーブロックを用いて,両側(左右)乳房の2ビュー(CC/MLO)から取得した4つのマンモグラム内のパッチ関係を個別に学習する。
異なるビューとサイドからの出力を連結してグローバルトランスフォーマーブロックに供給し、左右の2つの異なるビューを表す4つのイメージのパッチ関係を共同で学習する。
提案モデルを評価するために, 悪性470例, 正常479例, 良性479例を含む949セットのマンモグラフィーを含むデータセットを逆向きに収集した。
5倍のクロスバリデーション法を用いてモデルを訓練・評価した。
最適ウィンドウトリミング,胸壁,胸部筋除去,2ビュー画像登録など)の困難な前処理ステップがなければ,我々の4画像(2ビュー2サイド)トランスフォーマーベースモデルは,OC曲線以下の領域(AUC = 0.818)でケース分類性能を達成し,最先端のマルチビューCNN(p = 0.009)によりAUC = 0.784を著しく上回った。
また、それぞれ0.724(ccビュー)と0.769(mloビュー)の2つの1ビューツーサイドモデルよりも優れている。
本研究は,4つのマンモグラムを組み合わせた高性能なコンピュータ支援診断手法の開発にトランスフォーマーを用いることの可能性を示す。
関連論文リスト
- Dual-scale Enhanced and Cross-generative Consistency Learning for
Semi-supervised Polyp Segmentation [52.06525450636897]
大腸癌の早期診断と治療において, 自動ポリープセグメンテーションが重要な役割を担っている。
既存の手法は、完全に教師されたトレーニングに大きく依存しており、大量のラベル付きデータと時間を要するピクセル単位のアノテーションを必要とする。
大腸内視鏡画像からの半教師付きポリープ(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - TransReg: Cross-transformer as auto-registration module for multi-view
mammogram mass detection [0.0]
頭蓋頭蓋骨(CC)と側方斜視(MLO)の関連性を利用したCADシステムであるTransRegを提案する。
このシステムは、マス検出問題に対して、シアム高速RCNNネットワークによって抽出された関心領域(RoIs)の関係をモデル化するクロストランスフォーマーを含む。
我々の研究は、クロストランスフォーマーをオブジェクト検出フレームワークに統合して、異方性ビュー間の関係をモデル化した初めてのものです。
論文 参考訳(メタデータ) (2023-11-09T08:08:12Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Multi-View Hypercomplex Learning for Breast Cancer Screening [7.147856898682969]
伝統的に、乳がん分類のための深層学習法は単一視点解析を行う。
放射線科医は マンモグラフィー検査を構成する4つのビューを 同時に分析します
パラメータ化ハイパープレックスニューラルネットワークを用いた多視点乳がん分類法を提案する。
論文 参考訳(メタデータ) (2022-04-12T13:32:31Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - Breast Cancer Diagnosis in Two-View Mammography Using End-to-End Trained
EfficientNet-Based Convolutional Network [0.0]
深層畳み込みニューラルネットワークは、ヒトの専門家と同等またはそれ以上の性能の乳がんをマンモグラムで診断する。
本稿では,2つの転帰学習から成る最良技術について紹介する。
論文 参考訳(メタデータ) (2021-10-01T22:09:59Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z) - Segmentation of Cellular Patterns in Confocal Images of Melanocytic
Lesions in vivo via a Multiscale Encoder-Decoder Network (MED-Net) [2.0487455621441377]
マルチスケールデコーダネットワーク(MED-Net)は,パターンのクラスに定量的なラベル付けを行う。
メラノサイト病変の117個の反射共焦点顕微鏡(RCM)モザイクの非重畳分割について,本モデルを訓練・試験した。
論文 参考訳(メタデータ) (2020-01-03T22:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。