論文の概要: Transformer-Based Explainable Deep Learning for Breast Cancer Detection in Mammography: The MammoFormer Framework
- arxiv url: http://arxiv.org/abs/2508.06137v1
- Date: Fri, 08 Aug 2025 08:59:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.159591
- Title: Transformer-Based Explainable Deep Learning for Breast Cancer Detection in Mammography: The MammoFormer Framework
- Title(参考訳): 乳癌検診のためのトランスフォーマーを用いた説明可能な深層学習:マンモフォーマーフレームワーク
- Authors: Ojonugwa Oluwafemi Ejiga Peter, Daniel Emakporuena, Bamidele Dayo Tunde, Maryam Abdulkarim, Abdullahi Bn Umar,
- Abstract要約: MammoFormerフレームワークは、マルチ機能拡張コンポーネントとXAI機能を備えたトランスフォーマーベースのアーキテクチャを統一する。
CNN、Vision Transformer、Swin Transformer、ConvNextの7つの異なるアーキテクチャがテストされた。
MammoFormerフレームワークは、AIマンモグラフィシステムの臨床的採用障壁に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Breast cancer detection through mammography interpretation remains difficult because of the minimal nature of abnormalities that experts need to identify alongside the variable interpretations between readers. The potential of CNNs for medical image analysis faces two limitations: they fail to process both local information and wide contextual data adequately, and do not provide explainable AI (XAI) operations that doctors need to accept them in clinics. The researcher developed the MammoFormer framework, which unites transformer-based architecture with multi-feature enhancement components and XAI functionalities within one framework. Seven different architectures consisting of CNNs, Vision Transformer, Swin Transformer, and ConvNext were tested alongside four enhancement techniques, including original images, negative transformation, adaptive histogram equalization, and histogram of oriented gradients. The MammoFormer framework addresses critical clinical adoption barriers of AI mammography systems through: (1) systematic optimization of transformer architectures via architecture-specific feature enhancement, achieving up to 13% performance improvement, (2) comprehensive explainable AI integration providing multi-perspective diagnostic interpretability, and (3) a clinically deployable ensemble system combining CNN reliability with transformer global context modeling. The combination of transformer models with suitable feature enhancements enables them to achieve equal or better results than CNN approaches. ViT achieves 98.3% accuracy alongside AHE while Swin Transformer gains a 13.0% advantage through HOG enhancements
- Abstract(参考訳): マンモグラフィーの解釈による乳癌の検出は、専門家が読者間の多様な解釈と並行して識別する必要がある異常の最小限の性質のため、依然として困難である。
医用画像解析におけるCNNの可能性には、ローカル情報と広いコンテキストデータの両方を適切に処理できず、医師が診療所で受け入れなければならない説明可能なAI(XAI)操作を提供しない、という2つの制限がある。
このフレームワークは、トランスフォーマーベースのアーキテクチャを多機能拡張コンポーネントとXAI機能をひとつのフレームワーク内で統合する。
CNN、Vision Transformer、Swin Transformer、ConvNextの7つの異なるアーキテクチャが、オリジナル画像、負の変換、適応ヒストグラム等化、指向性勾配のヒストグラムを含む4つの拡張技術と共にテストされた。
MammoFormerフレームワークは,(1)アーキテクチャ固有の機能拡張によるトランスフォーマーアーキテクチャの体系的最適化,最大13%のパフォーマンス向上,(2)マルチパースペクティブな診断解釈能力を備えた包括的説明可能なAI統合,(3)CNN信頼性とトランスフォーマーグローバルコンテキストモデリングを組み合わせた臨床展開可能なアンサンブルシステムなどを通じて,AIマンモグラフィシステムの重要な臨床導入障壁に対処する。
変圧器モデルと適切な機能拡張の組み合わせにより、CNNのアプローチと同等かそれ以上の結果が得られる。
ViTはAHEと共に98.3%の精度を実現し、Swin TransformerはHOGの強化により13.0%の優位性を得る
関連論文リスト
- pyMEAL: A Multi-Encoder Augmentation-Aware Learning for Robust and Generalizable Medical Image Translation [0.0]
3D医療画像は、取得プロトコル、スキャナの違い、患者の動きによって、データの不足と不整合に悩まされている。
従来の拡張では、すべての変換に単一のパイプラインを使用しており、各拡張のユニークな特性を無視している。
専用エンコーダによって処理される4つの異なる拡張変異を利用したマルチエンコーダ拡張学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T10:01:23Z) - Multi-Scale Transformer Architecture for Accurate Medical Image Classification [4.578375402082224]
本研究では,トランスフォーマーアーキテクチャを改良したAIによる皮膚病変分類アルゴリズムを提案する。
マルチスケールな特徴融合機構の統合と自己認識プロセスの洗練により、このモデルはグローバルな特徴とローカルな特徴の両方を効果的に抽出する。
ISIC 2017データセットのパフォーマンス評価は、改良されたTransformerが既存のAIモデルを上回ることを示している。
論文 参考訳(メタデータ) (2025-02-10T08:22:25Z) - Improved EATFormer: A Vision Transformer for Medical Image Classification [0.0]
本稿では,ビジョントランスフォーマを用いた医用画像分類のための改良されたアルゴリズムベースのトランスフォーマアーキテクチャを提案する。
提案したEATFormerアーキテクチャは、畳み込みニューラルネットワークとビジョントランスフォーマーの長所を組み合わせたものだ。
Chest X-rayデータセットとKvasirデータセットの実験結果から,提案したEATFormerはベースラインモデルと比較して予測速度と精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-03-19T21:40:20Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - PHTrans: Parallelly Aggregating Global and Local Representations for
Medical Image Segmentation [7.140322699310487]
我々はPHTransと呼ばれる医用画像分割のための新しいハイブリッドアーキテクチャを提案する。
PHTransはTransformerとCNNを並列にハイブリッド化し、グローバルな特徴とローカルな特徴から階層的な表現を生成する。
論文 参考訳(メタデータ) (2022-03-09T08:06:56Z) - Class-Aware Generative Adversarial Transformers for Medical Image
Segmentation [39.14169989603906]
医用画像セグメンテーションのための新規な生成逆変換器CA-GANformerを提案する。
まず、ピラミッド構造を利用してマルチスケール表現を構築し、マルチスケールのバリエーションを扱う。
次に、意味構造を持つオブジェクトの識別領域をよりよく学習するために、新しいクラス対応トランスフォーマーモジュールを設計する。
論文 参考訳(メタデータ) (2022-01-26T03:50:02Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。