論文の概要: Multi-View Breast Cancer Classification via Hypercomplex Neural Networks
- arxiv url: http://arxiv.org/abs/2204.05798v1
- Date: Tue, 12 Apr 2022 13:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 11:38:51.299889
- Title: Multi-View Breast Cancer Classification via Hypercomplex Neural Networks
- Title(参考訳): 超複雑ニューラルネットワークを用いた多視点乳癌分類
- Authors: Eleonora Lopez, Eleonora Grassucci, Martina Valleriani, Danilo
Comminiello
- Abstract要約: パラメータ化ハイパープレックスニューラルネットワークを用いた多視点乳がん分類法を提案する。
超複素代数特性により、我々のネットワークは、マンモグラム試験を構成する異なる視点間の既存の相関をモデル化し、活用することができる。
その結果,検査の多視点性を損なうことなく患者の情報を完全に処理できることがわかった。
- 参考スコア(独自算出の注目度): 6.316185724124034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditionally, deep learning-based methods for breast cancer classification
perform a single-view analysis. However, radiologists simultaneously analyze
all four views that compose a mammography exam, owing to the correlations
contained in mammography views, which present crucial information for
identifying tumors. In light of this, some studies have started to propose
multi-view methods. Nevertheless, in such existing architectures, mammogram
views are processed as independent images by separate convolutional branches,
thus losing correlations among them. To overcome such limitations, in this
paper we propose a novel approach for multi-view breast cancer classification
based on parameterized hypercomplex neural networks. Thanks to hypercomplex
algebra properties, our networks are able to model, and thus leverage, existing
correlations between the different views that comprise a mammogram exam, thus
mimicking the reading process performed by clinicians. As a consequence, the
proposed method is able to handle the information of a patient altogether
without breaking the multi-view nature of the exam. Starting from the proposed
hypercomplex approach, we define architectures designed to process two-view
exams, namely PHResNets, and four-view exams, i.e., PHYSEnet and PHYSBOnet,
with the ability to grasp inter-view correlations in a wide range of clinical
use cases. Through an extensive experimental evaluation conducted with two
publicly available datasets, CBIS-DDSM and INbreast, we demonstrate that our
parameterized hypercomplex models clearly outperform real-valued counterparts
and also state-of-the-art methods, proving that breast cancer classification
benefits from the proposed multi-view architecture. Full code and pretrained
models for complete reproducibility of our experiments are freely available at:
https://github.com/ispamm/PHBreast.
- Abstract(参考訳): 伝統的に、深層学習に基づく乳がん分類の方法は、シングルビュー分析を行う。
しかし,放射線科医はマンモグラフィ所見に含まれる相関関係から,マンモグラフィ検査を構成する4つの視点をすべて同時に分析し,腫瘍の同定に重要な情報を提供する。
これを踏まえ、いくつかの研究がマルチビュー手法を提案し始めている。
それにもかかわらず、既存のアーキテクチャでは、マンモグラムビューは分離した畳み込み枝によって独立した画像として処理されるため、それらの相関は失われる。
このような制約を克服するために,パラメータ化された超複雑ニューラルネットワークに基づく多視点乳がん分類手法を提案する。
超複素代数特性により、我々のネットワークは、マンモグラム試験を構成する異なる視点間の既存の相関関係をモデル化し、活用することができ、臨床医が実施する読影過程を模倣することができる。
その結果, 試験の多視点性を損なうことなく, 患者の情報を完全に処理することが可能となった。
提案するハイパーコンプレックスアプローチを出発点として,2視点試験,すなわちphresnetと4視点試験,すなわちphysenetとphysbonetを処理し,幅広い臨床応用例における視点間相関を把握可能なアーキテクチャを定義する。
CBIS-DDSM と INbreast の2つの公開データセットを用いて実験を行った結果,パラメータ化ハイパープレックスモデルは実測値と最先端の手法を明らかに上回り,乳がんの分類が提案したマルチビューアーキテクチャによるメリットを証明した。
実験の完全な再現性のための完全なコードと事前訓練されたモデルは、https://github.com/ispamm/PHBreast.comで無料で利用可能です。
関連論文リスト
- MV-Swin-T: Mammogram Classification with Multi-view Swin Transformer [0.257133335028485]
マンモグラフィ画像分類における課題に対処するために,トランスフォーマーに基づく革新的なマルチビューネットワークを提案する。
提案手法では,ウィンドウベースの動的アテンションブロックを導入し,マルチビュー情報の効果的な統合を容易にする。
論文 参考訳(メタデータ) (2024-02-26T04:41:04Z) - Enhancing Representation in Radiography-Reports Foundation Model: A Granular Alignment Algorithm Using Masked Contrastive Learning [26.425784890859738]
MaCoは、マスク付きコントラスト型胸部X線基礎モデルである。
様々な医療画像のタスクに対して、きめ細かい画像理解とゼロショット学習を同時に達成する。
分類、セグメンテーション、検出、句接地といったタスクにまたがる、最先端の10のアプローチよりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-12T01:29:37Z) - Classification of lung cancer subtypes on CT images with synthetic
pathological priors [41.75054301525535]
同症例のCT像と病理像との間には,画像パターンに大規模な関連性が存在する。
肺がんサブタイプをCT画像上で正確に分類するための自己生成型ハイブリッド機能ネットワーク(SGHF-Net)を提案する。
論文 参考訳(メタデータ) (2023-08-09T02:04:05Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Act Like a Radiologist: Towards Reliable Multi-view Correspondence
Reasoning for Mammogram Mass Detection [49.14070210387509]
マンモグラム質量検出のための解剖学的グラフ畳み込みネットワーク(AGN)を提案する。
AGNはマンモグラムの質量検出用に調整されており、既存の検出手法を多視点推論能力で実現している。
2つの標準ベンチマークの実験によると、AGNは最先端のパフォーマンスを大幅に上回っている。
論文 参考訳(メタデータ) (2021-05-21T06:48:34Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Automatic Breast Lesion Classification by Joint Neural Analysis of
Mammography and Ultrasound [1.9814912982226993]
そこで本研究では,乳がん病変を各乳腺造影像および超音波画像から分類する深層学習法を提案する。
提案されたアプローチは、GoogleNetアーキテクチャに基づいており、データのために2つのトレーニングステップで微調整されています。
AUCは0.94で、単一のモダリティで訓練された最先端のモデルより優れている。
論文 参考訳(メタデータ) (2020-09-23T09:08:24Z) - Dual Convolutional Neural Networks for Breast Mass Segmentation and
Diagnosis in Mammography [18.979126709943085]
本稿では,マンモグラム画像処理のための新しいディープラーニングフレームワークを提案する。
本手法はデュアルパスアーキテクチャで構築され,そのマッピングをデュアルプロブレム方式で解決する。
実験の結果,DualCoreNetはマンモグラフィーのセグメンテーションと分類を同時に達成し,最近の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-07T02:23:36Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。