論文の概要: Automatic Breast Lesion Classification by Joint Neural Analysis of
Mammography and Ultrasound
- arxiv url: http://arxiv.org/abs/2009.11009v1
- Date: Wed, 23 Sep 2020 09:08:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:38:55.622483
- Title: Automatic Breast Lesion Classification by Joint Neural Analysis of
Mammography and Ultrasound
- Title(参考訳): マンモグラフィと超音波のジョイントニューラル解析による乳腺病変の自動分類
- Authors: Gavriel Habib, Nahum Kiryati, Miri Sklair-Levy, Anat Shalmon, Osnat
Halshtok Neiman, Renata Faermann Weidenfeld, Yael Yagil, Eli Konen, Arnaldo
Mayer
- Abstract要約: そこで本研究では,乳がん病変を各乳腺造影像および超音波画像から分類する深層学習法を提案する。
提案されたアプローチは、GoogleNetアーキテクチャに基づいており、データのために2つのトレーニングステップで微調整されています。
AUCは0.94で、単一のモダリティで訓練された最先端のモデルより優れている。
- 参考スコア(独自算出の注目度): 1.9814912982226993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mammography and ultrasound are extensively used by radiologists as
complementary modalities to achieve better performance in breast cancer
diagnosis. However, existing computer-aided diagnosis (CAD) systems for the
breast are generally based on a single modality. In this work, we propose a
deep-learning based method for classifying breast cancer lesions from their
respective mammography and ultrasound images. We present various approaches and
show a consistent improvement in performance when utilizing both modalities.
The proposed approach is based on a GoogleNet architecture, fine-tuned for our
data in two training steps. First, a distinct neural network is trained
separately for each modality, generating high-level features. Then, the
aggregated features originating from each modality are used to train a
multimodal network to provide the final classification. In quantitative
experiments, the proposed approach achieves an AUC of 0.94, outperforming
state-of-the-art models trained over a single modality. Moreover, it performs
similarly to an average radiologist, surpassing two out of four radiologists
participating in a reader study. The promising results suggest that the
proposed method may become a valuable decision support tool for breast
radiologists.
- Abstract(参考訳): マンモグラフィーと超音波検査は、乳癌の診断においてより良いパフォーマンスを達成するために、放射線技師によって補体として広く用いられている。
しかし、乳房のコンピュータ支援診断システム(CAD)は一般に単一のモダリティに基づいている。
本研究は,乳がん病変を各乳房画像および超音波画像から分類する深層学習法を提案する。
両モードを利用する場合,様々なアプローチを示し,一貫した性能向上を示す。
提案されたアプローチは、GoogleNetアーキテクチャに基づいており、データのために2つのトレーニングステップで微調整されています。
まず、個々のモダリティに対して異なるニューラルネットワークを個別にトレーニングし、ハイレベルな特徴を生成する。
次に、各モダリティに由来する集約特徴を用いて、最終分類を提供するマルチモーダルネットワークを訓練する。
定量的実験において、提案手法は1つのモダリティで訓練された最先端モデルよりも優れた0.94のAUCを達成する。
さらに、平均的な放射線科医と同様に、読者調査に参加する4人の放射線科医のうち2人を超える。
提案手法が乳腺放射線科医にとって有用な意思決定支援ツールとなる可能性が示唆された。
関連論文リスト
- Federated Learning with Research Prototypes for Multi-Center MRI-based
Detection of Prostate Cancer with Diverse Histopathology [3.8613414331251423]
前立腺癌検出アルゴリズムのクロスサイトトレーニング,検証,評価のためのフレキシブル・フェデレート・ラーニング・フレームワークを提案する。
前立腺癌の検出と分類の精度は,神経回路モデルと多種多様な前立腺生検データを用いて向上した。
我々はFLtoolsシステムをオープンソースとして公開し、医療画像のための他のディープラーニングプロジェクトに容易に対応できるようにしています。
論文 参考訳(メタデータ) (2022-06-11T21:28:17Z) - RadioPathomics: Multimodal Learning in Non-Small Cell Lung Cancer for
Adaptive Radiotherapy [1.8161758803237067]
非小細胞肺癌に対する放射線治療成績を予測するため, マルチモーダルレイトフュージョン法を開発した。
実験により、AUCが90.9%ドルと同等のマルチモーダルパラダイムが、各ユニモーダルアプローチより優れていることが示された。
論文 参考訳(メタデータ) (2022-04-26T16:32:52Z) - Multi-View Hypercomplex Learning for Breast Cancer Screening [7.147856898682969]
伝統的に、乳がん分類のための深層学習法は単一視点解析を行う。
放射線科医は マンモグラフィー検査を構成する4つのビューを 同時に分析します
パラメータ化ハイパープレックスニューラルネットワークを用いた多視点乳がん分類法を提案する。
論文 参考訳(メタデータ) (2022-04-12T13:32:31Z) - Ultrasound Signal Processing: From Models to Deep Learning [64.56774869055826]
医用超音波画像は、信頼性と解釈可能な画像再構成を提供するために、高品質な信号処理に大きく依存している。
データ駆動方式で最適化されたディープラーニングベースの手法が人気を集めている。
比較的新しいパラダイムは、データ駆動型ディープラーニングの活用とドメイン知識の活用という2つのパワーを組み合わせたものだ。
論文 参考訳(メタデータ) (2022-04-09T13:04:36Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - RCA-IUnet: A residual cross-spatial attention guided inception U-Net
model for tumor segmentation in breast ultrasound imaging [0.6091702876917281]
本稿では,腫瘍セグメンテーションのトレーニングパラメータが最小限に抑えられたRCA-IUnetモデルについて紹介する。
RCA-IUnetモデルは、U-Netトポロジに従い、奥行きの深い分離可能な畳み込みとハイブリッドプール層を持つ。
無関係な特徴を抑え、対象構造に焦点を合わせるために、空間横断型アテンションフィルタが加えられる。
論文 参考訳(メタデータ) (2021-08-05T10:35:06Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Auto-weighting for Breast Cancer Classification in Multimodal Ultrasound [0.0]
良性乳房結節と悪性乳腺結節を鑑別する4種類の超音波検査法を提案する。
分類精度を向上させるため,新しいマルチモーダルネットワークが提案されている。
その結果,提案手法の有効性を示す95.4%の分類精度が得られた。
論文 参考訳(メタデータ) (2020-08-08T03:42:00Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。