論文の概要: MV-Swin-T: Mammogram Classification with Multi-view Swin Transformer
- arxiv url: http://arxiv.org/abs/2402.16298v1
- Date: Mon, 26 Feb 2024 04:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:33:07.563462
- Title: MV-Swin-T: Mammogram Classification with Multi-view Swin Transformer
- Title(参考訳): MV-Swin-T:マルチビュースウィントランスを用いたマンモグラム分類
- Authors: Sushmita Sarker, Prithul Sarker, George Bebis, and Alireza Tavakkoli
- Abstract要約: マンモグラフィ画像分類における課題に対処するために,トランスフォーマーに基づく革新的なマルチビューネットワークを提案する。
提案手法では,ウィンドウベースの動的アテンションブロックを導入し,マルチビュー情報の効果的な統合を容易にする。
- 参考スコア(独自算出の注目度): 0.257133335028485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional deep learning approaches for breast cancer classification has
predominantly concentrated on single-view analysis. In clinical practice,
however, radiologists concurrently examine all views within a mammography exam,
leveraging the inherent correlations in these views to effectively detect
tumors. Acknowledging the significance of multi-view analysis, some studies
have introduced methods that independently process mammogram views, either
through distinct convolutional branches or simple fusion strategies,
inadvertently leading to a loss of crucial inter-view correlations. In this
paper, we propose an innovative multi-view network exclusively based on
transformers to address challenges in mammographic image classification. Our
approach introduces a novel shifted window-based dynamic attention block,
facilitating the effective integration of multi-view information and promoting
the coherent transfer of this information between views at the spatial feature
map level. Furthermore, we conduct a comprehensive comparative analysis of the
performance and effectiveness of transformer-based models under diverse
settings, employing the CBIS-DDSM and Vin-Dr Mammo datasets. Our code is
publicly available at https://github.com/prithuls/MV-Swin-T
- Abstract(参考訳): 乳がん分類における従来のディープラーニングアプローチは、主に単一視点分析に集中している。
しかし, 放射線科医は, マンモグラフィー検査におけるすべての所見を同時に検査し, 腫瘍を効果的に検出する。
マルチビュー分析の重要性を認識したいくつかの研究は、異なる畳み込み分岐または単純な融合戦略を通じて、独立してマンモグラムビューを処理し、不注意に重要なビュー間相関を失う方法を導入した。
本稿では,マンモグラフィ画像分類における課題に対処するために,トランスフォーマーのみに基づく革新的なマルチビューネットワークを提案する。
本研究では,マルチビュー情報の効果的な統合を促進し,空間的特徴マップレベルでの視点間の情報伝達を促進する新しいシフトウインドウ型動的注意ブロックを提案する。
さらに, CBIS-DDSMおよびVin-Dr Mammoデータセットを用いて, トランスフォーマーモデルの性能と有効性に関する総合的な比較分析を行った。
私たちのコードはhttps://github.com/prithuls/MV-Swin-Tで公開されています。
関連論文リスト
- MoRE: Multi-Modal Contrastive Pre-training with Transformers on X-Rays, ECGs, and Diagnostic Report [4.340464264725625]
我々は,X線,心電図(ECG),放射線学・心臓医学報告を相乗的に組み合わせた,新しいマルチモーダルコントラスト事前学習フレームワークを提案する。
我々はLoRA-Peftを用いて、LLMにおけるトレーニング可能なパラメータを著しく削減し、視覚変換器(ViT)に最近の線形アテンション降下戦略を取り入れ、よりスムーズなアテンションを実現する。
我々の知る限り、我々はX線、心電図、放射線学・医学レポートをこの手法と組み合わせた統合モデルを提案している。
論文 参考訳(メタデータ) (2024-10-21T17:42:41Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - C^2M-DoT: Cross-modal consistent multi-view medical report generation
with domain transfer network [67.97926983664676]
ドメイン転送ネットワーク(C2M-DoT)を用いたクロスモーダルなマルチビュー医療レポート生成を提案する。
C2M-DoTは、すべてのメトリクスで最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2023-10-09T02:31:36Z) - SwinMM: Masked Multi-view with Swin Transformers for 3D Medical Image
Segmentation [32.092182889440814]
医用画像解析のための新しいマルチビューパイプラインであるSwin Transformers (SwinMM) を用いたMasked Multi-viewを提案する。
トレーニング前段階では,マスク付きマルチビュー観測を同時にトレーニングするために考案されたマスク付きマルチビューエンコーダをデプロイする。
新しいタスクは、様々な視点から予測間の一貫性を活かし、隠れた多視点情報の抽出を可能にする。
論文 参考訳(メタデータ) (2023-07-24T08:06:46Z) - The Whole Pathological Slide Classification via Weakly Supervised
Learning [7.313528558452559]
細胞核疾患と病理タイルの空間的相関の2つの病因を考察した。
本研究では,抽出器訓練中の汚れ分離を利用したデータ拡張手法を提案する。
次に,隣接行列を用いてタイル間の空間的関係を記述する。
これら2つのビューを統合することで,H&E染色組織像を解析するためのマルチインスタンス・フレームワークを設計した。
論文 参考訳(メタデータ) (2023-07-12T16:14:23Z) - Beyond CNNs: Exploiting Further Inherent Symmetries in Medical Image
Segmentation [21.6412682130116]
より正確な表現を学習するために、これらの固有対称性を符号化することで、新しいグループ同変セグメンテーションフレームワークを提案する。
GER-UNet(Group Equivariant Res-UNet)が通常のCNNよりも優れていることを示す。
新たに構築されたGER-UNetは、サンプルの複雑さとフィルタの冗長性を減少させる可能性を示している。
論文 参考訳(メタデータ) (2022-07-29T04:28:20Z) - Superficial White Matter Analysis: An Efficient Point-cloud-based Deep
Learning Framework with Supervised Contrastive Learning for Consistent
Tractography Parcellation across Populations and dMRI Acquisitions [68.41088365582831]
ホワイトマターパーセレーション(White matter parcellation)は、トラクトグラフィーをクラスタまたは解剖学的に意味のあるトラクトに分類する。
ほとんどのパーセレーション法はディープホワイトマター(DWM)にフォーカスするが、その複雑さのため表面ホワイトマター(SWM)に対処する手法は少ない。
本稿では,2段階の深層学習に基づく新しいフレームワークであるSuperficial White Matter Analysis (SupWMA)を提案する。
論文 参考訳(メタデータ) (2022-07-18T23:07:53Z) - Multi-View Hypercomplex Learning for Breast Cancer Screening [7.147856898682969]
伝統的に、乳がん分類のための深層学習法は単一視点解析を行う。
放射線科医は マンモグラフィー検査を構成する4つのビューを 同時に分析します
パラメータ化ハイパープレックスニューラルネットワークを用いた多視点乳がん分類法を提案する。
論文 参考訳(メタデータ) (2022-04-12T13:32:31Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。