論文の概要: Multi-View Hypercomplex Learning for Breast Cancer Screening
- arxiv url: http://arxiv.org/abs/2204.05798v3
- Date: Mon, 4 Mar 2024 16:43:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 04:29:41.113676
- Title: Multi-View Hypercomplex Learning for Breast Cancer Screening
- Title(参考訳): 乳がん検診における多視点ハイパーコンプレックス学習
- Authors: Eleonora Lopez, Eleonora Grassucci, Martina Valleriani, Danilo
Comminiello
- Abstract要約: 伝統的に、乳がん分類のための深層学習法は単一視点解析を行う。
放射線科医は マンモグラフィー検査を構成する4つのビューを 同時に分析します
パラメータ化ハイパープレックスニューラルネットワークを用いた多視点乳がん分類法を提案する。
- 参考スコア(独自算出の注目度): 7.147856898682969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditionally, deep learning methods for breast cancer classification perform
a single-view analysis. However, radiologists simultaneously analyze all four
views that compose a mammography exam, owing to the correlations contained in
mammography views, which present crucial information for identifying tumors. In
light of this, some studies have started to propose multi-view methods.
Nevertheless, in such existing architectures, mammogram views are processed as
independent images by separate convolutional branches, thus losing correlations
among them. To overcome such limitations, in this paper, we propose a
methodological approach for multi-view breast cancer classification based on
parameterized hypercomplex neural networks. Thanks to hypercomplex algebra
properties, our networks are able to model, and thus leverage, existing
correlations between the different views that comprise a mammogram, thus
mimicking the reading process performed by clinicians. This happens because
hypercomplex networks capture both global properties, as standard neural
models, as well as local relations, i.e., inter-view correlations, which
real-valued networks fail at modeling. We define architectures designed to
process two-view exams, namely PHResNets, and four-view exams, i.e., PHYSEnet
and PHYBOnet. Through an extensive experimental evaluation conducted with
publicly available datasets, we demonstrate that our proposed models clearly
outperform real-valued counterparts and state-of-the-art methods, proving that
breast cancer classification benefits from the proposed multi-view
architectures. We also assess the method generalizability beyond mammogram
analysis by considering different benchmarks, as well as a finer-scaled task
such as segmentation. Full code and pretrained models for complete
reproducibility of our experiments are freely available at
https://github.com/ispamm/PHBreast.
- Abstract(参考訳): 伝統的に、乳がん分類のための深層学習法は単一視点解析を行う。
しかし,放射線科医はマンモグラフィ所見に含まれる相関関係から,マンモグラフィ検査を構成する4つの視点をすべて同時に分析し,腫瘍の同定に重要な情報を提供する。
これを踏まえ、いくつかの研究がマルチビュー手法を提案し始めている。
それにもかかわらず、既存のアーキテクチャでは、マンモグラムビューは分離した畳み込み枝によって独立した画像として処理されるため、それらの相関は失われる。
このような限界を克服するため,本稿では,パラメータ化ハイパーコンプレックスニューラルネットワークを用いた多視点乳癌分類のための方法論的アプローチを提案する。
超複素代数的性質のおかげで、我々のネットワークは、マンモグラムを構成する異なるビュー間の既存の相関をモデル化し、活用することができる。
これは、ハイパープレプレックスネットワークが、標準的なニューラルモデルのようなグローバルな特性と、実数値ネットワークがモデリングで失敗するビュー間相関のような局所的な関係の両方を捉えているためである。
PHResNets と PHYSEnet と PHYBOnet の 4 ビュー試験を行うために設計されたアーキテクチャを定義する。
公開データセットを用いて実施した広範囲な実験的評価により,提案したモデルが,提案したマルチビューアーキテクチャによる乳がん分類のメリットを証明し,実測値と最先端手法を明らかに上回ることを示す。
また, マンモグラム解析以外の方法の一般化を, 異なるベンチマークを考慮し, セグメンテーションなどの細かなタスクも検討した。
実験の完全な再現性のための完全なコードと事前訓練されたモデルは、https://github.com/ispamm/PHBreast.comで無料で利用可能です。
関連論文リスト
- CC-DCNet: Dynamic Convolutional Neural Network with Contrastive Constraints for Identifying Lung Cancer Subtypes on Multi-modality Images [13.655407979403945]
肺がんサブタイプを多次元・多モード画像で正確に分類するための新しい深層学習ネットワークを提案する。
提案モデルの強みは, 対のCT-病理画像セットと独立のCT画像セットの両方を動的に処理できることにある。
また,ネットワーク学習を通じてモダリティ関係を定量的にマッピングするコントラスト制約モジュールも開発した。
論文 参考訳(メタデータ) (2024-07-18T01:42:00Z) - MV-Swin-T: Mammogram Classification with Multi-view Swin Transformer [0.257133335028485]
マンモグラフィ画像分類における課題に対処するために,トランスフォーマーに基づく革新的なマルチビューネットワークを提案する。
提案手法では,ウィンドウベースの動的アテンションブロックを導入し,マルチビュー情報の効果的な統合を容易にする。
論文 参考訳(メタデータ) (2024-02-26T04:41:04Z) - Classification of lung cancer subtypes on CT images with synthetic
pathological priors [41.75054301525535]
同症例のCT像と病理像との間には,画像パターンに大規模な関連性が存在する。
肺がんサブタイプをCT画像上で正確に分類するための自己生成型ハイブリッド機能ネットワーク(SGHF-Net)を提案する。
論文 参考訳(メタデータ) (2023-08-09T02:04:05Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Act Like a Radiologist: Towards Reliable Multi-view Correspondence
Reasoning for Mammogram Mass Detection [49.14070210387509]
マンモグラム質量検出のための解剖学的グラフ畳み込みネットワーク(AGN)を提案する。
AGNはマンモグラムの質量検出用に調整されており、既存の検出手法を多視点推論能力で実現している。
2つの標準ベンチマークの実験によると、AGNは最先端のパフォーマンスを大幅に上回っている。
論文 参考訳(メタデータ) (2021-05-21T06:48:34Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Automatic Breast Lesion Classification by Joint Neural Analysis of
Mammography and Ultrasound [1.9814912982226993]
そこで本研究では,乳がん病変を各乳腺造影像および超音波画像から分類する深層学習法を提案する。
提案されたアプローチは、GoogleNetアーキテクチャに基づいており、データのために2つのトレーニングステップで微調整されています。
AUCは0.94で、単一のモダリティで訓練された最先端のモデルより優れている。
論文 参考訳(メタデータ) (2020-09-23T09:08:24Z) - Dual Convolutional Neural Networks for Breast Mass Segmentation and
Diagnosis in Mammography [18.979126709943085]
本稿では,マンモグラム画像処理のための新しいディープラーニングフレームワークを提案する。
本手法はデュアルパスアーキテクチャで構築され,そのマッピングをデュアルプロブレム方式で解決する。
実験の結果,DualCoreNetはマンモグラフィーのセグメンテーションと分類を同時に達成し,最近の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-07T02:23:36Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。