論文の概要: Optimizing Breast Cancer Detection in Mammograms: A Comprehensive Study of Transfer Learning, Resolution Reduction, and Multi-View Classification
- arxiv url: http://arxiv.org/abs/2503.19945v3
- Date: Tue, 07 Oct 2025 23:35:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 14:21:17.963851
- Title: Optimizing Breast Cancer Detection in Mammograms: A Comprehensive Study of Transfer Learning, Resolution Reduction, and Multi-View Classification
- Title(参考訳): マンモグラムにおける乳癌検診の最適化 : 移行学習,分解能低下,多視点分類の総合的研究
- Authors: Daniel G. P. Petrini, Hae Yong Kim,
- Abstract要約: X線撮影技術であるマンモグラフィーは、乳がんの早期発見の中心である。
人工知能の最近の進歩は、ますます高度なコンピュータ支援診断方法を可能にしている。
この進歩にもかかわらず、いくつかの重要な疑問は未解決のままである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mammography, an X-ray-based imaging technique, remains central to the early detection of breast cancer. Recent advances in artificial intelligence have enabled increasingly sophisticated computer-aided diagnostic methods, evolving from patch-based classifiers to whole-image approaches and then to multi-view architectures that jointly analyze complementary projections. Despite this progress, several critical questions remain unanswered. In this study, we systematically investigate these issues by addressing five key research questions: (1) the role of patch classifiers in performance, (2) the transferability of natural-image-trained backbones, (3) the advantages of learn-to-resize over conventional downscaling, (4) the contribution of multi-view integration, and (5) the robustness of findings across varying image quality. Beyond benchmarking, our experiments demonstrate clear performance gains over prior work. For the CBIS-DDSM dataset, we improved single-view AUC from 0.8153 to 0.8343, and multiple-view AUC from 0.8483 to 0.8658. Using a new comparative method, we also observed a 0.0217 AUC increase when extending from single to multiple-view analysis. On the complete VinDr-Mammo dataset, the multiple-view approach further improved results, achieving a 0.0492 AUC increase over single view and reaching 0.8511 AUC overall. These results establish new state-of-the-art benchmarks, providing clear evidence of the advantages of multi-view architectures for mammogram interpretation. Beyond performance, our analysis offers principled insights into model design and transfer learning strategies, contributing to the development of more accurate and reliable breast cancer screening tools. The inference code and trained models are publicly available at https://github.com/dpetrini/multiple-view.
- Abstract(参考訳): X線撮影技術であるマンモグラフィーは、乳がんの早期発見の中心である。
近年の人工知能の進歩により、パッチベースの分類器から全体像のアプローチへと進化し、補完的な投影を共同で分析するマルチビューアーキテクチャへと進化する、高度なコンピュータ支援診断手法が実現されている。
この進歩にもかかわらず、いくつかの重要な疑問は未解決のままである。
本研究では,(1) 動作におけるパッチ分類器の役割,(2) 自然なイメージを訓練したバックボーンの転送可能性,(3) 従来のダウンスケールよりも学習から再利用の利点,(4) マルチビュー統合の寄与,(5) 画像品質の異なる結果の堅牢性,の5つの主要な研究課題に対処して,これらの課題を体系的に検討する。
ベンチマーク以外の実験では、以前の作業よりも明らかなパフォーマンス向上が示されています。
CBIS-DDSMデータセットでは、シングルビューAUCを0.8153から0.8343に改善し、マルチビューAUCを0.8483から0.8658に改善した。
また,新しい比較手法を用いて,単視点から複数視点まで拡張した場合に0.0217 AUCの増加が見られた。
完全なVinDr-Mammoデータセットでは、マルチビューアプローチにより結果はさらに改善され、単一ビューで0.0492 AUCが増加し、全体として0.8511 AUCに達した。
これらの結果は新しい最先端のベンチマークを確立し、マンモグラム解釈のためのマルチビューアーキテクチャの利点の明確な証拠を提供する。
我々の分析は、パフォーマンス以外にも、モデル設計と転移学習戦略に関する原則的な洞察を提供し、より正確で信頼性の高い乳癌検診ツールの開発に寄与する。
推論コードとトレーニングされたモデルはhttps://github.com/dpetrini/multiple-view.comで公開されている。
関連論文リスト
- See More, Change Less: Anatomy-Aware Diffusion for Contrast Enhancement [54.01053990883076]
SMILEは解剖学的に認識された拡散モデルで、臓器がどのように形成され、どのようにコントラストを取るかを学ぶ。
他のすべての領域を変更せずに、臨床的に関係のある領域のみを増強する。
また、非造影CTによるがん検出も改善され、F1スコアは最大10%上昇する。
論文 参考訳(メタデータ) (2025-12-08T07:48:45Z) - A Hybrid CNN-VSSM model for Multi-View, Multi-Task Mammography Analysis: Robust Diagnosis with Attention-Based Fusion [5.15423063632115]
乳がんの早期かつ正確な検診は乳がん検出に不可欠である。
既存のAIアプローチは、単一ビューのインプットや単一タスクのアウトプットに注目して、不足している。
本研究では,4つの標準マンモグラフィビュー全てを処理する,新しいマルチビュー・マルチタスクハイブリッドディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-22T18:52:18Z) - Generalizable and Explainable Deep Learning for Medical Image Computing: An Overview [3.6586909519359607]
本稿では,医用画像用ディープラーニング(DL)における汎用的・説明可能な人工知能の概要について述べる。
我々は,脳腫瘍,皮膚癌,胸部X線という3つの医学的データセットに4つのCNNを用いて医用画像分類を行うことを提案する。
論文 参考訳(メタデータ) (2025-03-11T13:31:09Z) - Pathological Prior-Guided Multiple Instance Learning For Mitigating Catastrophic Forgetting in Breast Cancer Whole Slide Image Classification [50.899861205016265]
乳癌のWSI分類における破滅的忘れを緩和する新しい枠組みであるPaGMILを提案する。
私たちのフレームワークでは、共通のMILモデルアーキテクチャに2つの重要なコンポーネントを導入しています。
複数の乳がんデータセットを対象としたPaGMILの連続学習性能の評価を行った。
論文 参考訳(メタデータ) (2025-03-08T04:51:58Z) - GS-TransUNet: Integrated 2D Gaussian Splatting and Transformer UNet for Accurate Skin Lesion Analysis [44.99833362998488]
本稿では,2次元ガウススプラッティングとTransformer UNetアーキテクチャを組み合わせた皮膚癌自動診断手法を提案する。
セグメンテーションと分類の精度は著しく向上した。
この統合は、新しいベンチマークをこの分野に設定し、マルチタスク医療画像解析手法のさらなる研究の可能性を強調している。
論文 参考訳(メタデータ) (2025-02-23T23:28:47Z) - Multi-modal Vision Pre-training for Medical Image Analysis [11.569448567735435]
自己教師型学習は、実世界のアプリケーションに対するトレーニングデータ要求を抑えることにより、医療画像解析を大いに促進してきた。
我々は,3つの代用タスクによる新しいマルチモーダル画像事前学習を行い,相互モダリティ表現と相関の学習を容易にする。
Dice Scoreは6つのセグメンテーションベンチマークで0.28%-14.47%改善し、4つの画像分類タスクで0.65%-18.07%向上した。
論文 参考訳(メタデータ) (2024-10-14T15:12:16Z) - Mammo-CLIP: Leveraging Contrastive Language-Image Pre-training (CLIP) for Enhanced Breast Cancer Diagnosis with Multi-view Mammography [6.537171378333966]
Mammo-CLIPはマルチビューマンモグラムと対応する単純なテキストを処理する最初のマルチモーダルフレームワークである。
学習効率を向上させるため、CLIPイメージと微調整パラメータ用のテキストエンコーダにプラグアンドプレイアダプタが加えられている。
その結果,マンモCLIPはAUCの最先端のクロスビュートランスよりも優れていた。
論文 参考訳(メタデータ) (2024-04-24T16:07:31Z) - Parkinson's Disease Classification Using Contrastive Graph Cross-View Learning with Multimodal Fusion of SPECT Images and Clinical Features [5.660131312162423]
パーキンソン病(PD)は世界中の何百万もの人に影響を与え、運動に影響を与えている。
以前の研究では、ディープラーニングをPD予測に利用し、主に医療画像に焦点を当て、データの基盤となる多様体構造を無視した。
本研究では,画像特徴と非画像特徴の両方を包含するマルチモーダルアプローチを提案し,PD分類にコントラッシブなクロスビューグラフ融合を利用する。
論文 参考訳(メタデータ) (2023-11-25T02:32:46Z) - Towards Robust Natural-Looking Mammography Lesion Synthesis on
Ipsilateral Dual-Views Breast Cancer Analysis [1.1098503592431275]
マンモグラフィ分類タスクの2つの主要な課題は、マルチビューマンモグラフィ情報とクラスアンバランスハンドリングを活用することである。
補助的な視点から低レベル特徴情報を活用することにより,検討された視点(メインビュー)を強化するための,単純だが斬新な手法を提案する。
また, 単純ながら新規なマンモグラム合成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-07T06:33:30Z) - M&M: Tackling False Positives in Mammography with a Multi-view and
Multi-instance Learning Sparse Detector [13.67324365495568]
深層学習に基づく物体検出法は, マンモグラフィーのスクリーニングの改善を約束するが, 偽陽性率が高いと臨床実践における効果を阻害する可能性がある。
自然画像とは異なり,悪性マンモグラフィーは1つの悪性所見のみを含むのが一般的であり,マンモグラフィー検査は各乳房の2つの視点を含むため,どちらの視点も正しく評価されるべきである。
我々は,(1)スパースR-CNNの活用,(2)マンモグラフィの高密度検出器よりもスパース検出器の方が適切であることを示す,(2)異なる視点から情報を合成するための多視点横断モジュールを含む,3つの課題に取り組む。
論文 参考訳(メタデータ) (2023-08-11T23:59:47Z) - Domain Generalization for Mammographic Image Analysis with Contrastive
Learning [62.25104935889111]
効果的なディープラーニングモデルのトレーニングには、さまざまなスタイルと品質を備えた大規模なデータが必要である。
より優れたスタイルの一般化能力を備えた深層学習モデルを実現するために,新しいコントラスト学習法が開発された。
提案手法は,様々なベンダスタイルドメインのマンモグラムや,いくつかのパブリックデータセットを用いて,広範囲かつ厳密に評価されている。
論文 参考訳(メタデータ) (2023-04-20T11:40:21Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Mammograms Classification: A Review [0.0]
マンモグラム画像はコンピュータ支援診断システムの開発に利用されてきた。
研究者たちは、人工知能が病気の早期発見に利用できることを証明した。
論文 参考訳(メタデータ) (2022-03-04T19:22:35Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Domain Generalization for Mammography Detection via Multi-style and
Multi-view Contrastive Learning [47.30824944649112]
限られたリソースを持つ様々なベンダーに対して,ディープラーニングモデルの一般化能力を高めるために,新しいコントラスト学習手法を開発した。
バックボーンネットワークは、さまざまなベンダースタイルに不変機能を組み込むために、マルチスタイルでマルチビューで教師なしの自己学習スキームで訓練されている。
実験結果から,本手法は目視領域と目視領域の両方における検出性能を効果的に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-21T14:29:50Z) - Act Like a Radiologist: Towards Reliable Multi-view Correspondence
Reasoning for Mammogram Mass Detection [49.14070210387509]
マンモグラム質量検出のための解剖学的グラフ畳み込みネットワーク(AGN)を提案する。
AGNはマンモグラムの質量検出用に調整されており、既存の検出手法を多視点推論能力で実現している。
2つの標準ベンチマークの実験によると、AGNは最先端のパフォーマンスを大幅に上回っている。
論文 参考訳(メタデータ) (2021-05-21T06:48:34Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Robust Deep AUC Maximization: A New Surrogate Loss and Empirical Studies
on Medical Image Classification [63.44396343014749]
AUCスコアに対する新たなマージンベースサロゲート損失関数を提案する。
一般的に使用されるものよりも頑丈である。
大規模な最適化の観点からも同じ利点を享受しながら、正方損失。
私たちの知る限りでは、DAMが大規模医療画像データセットで成功するのはこれが初めてです。
論文 参考訳(メタデータ) (2020-12-06T03:41:51Z) - Using Machine Learning to Automate Mammogram Images Analysis [12.19801103274363]
X線マンモグラフィーによる乳がんの早期発見は死亡率を効果的に低下させたと考えられている。
マンモグラム画像を処理するコンピュータ支援自動マンモグラム解析システムを提案し, 正常または癌として自動的に識別する。
論文 参考訳(メタデータ) (2020-12-06T00:10:18Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。