論文の概要: Features Fusion for Dual-View Mammography Mass Detection
- arxiv url: http://arxiv.org/abs/2404.16718v1
- Date: Thu, 25 Apr 2024 16:30:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 13:10:51.013507
- Title: Features Fusion for Dual-View Mammography Mass Detection
- Title(参考訳): デュアルビューマンモグラフィマス検出のための特徴融合
- Authors: Arina Varlamova, Valery Belotsky, Grigory Novikov, Anton Konushin, Evgeny Sidorov,
- Abstract要約: 両マンモグラフィビューを同時に処理できるMAMM-Netという新しいモデルを提案する。
本実験は,従来の最先端モデルと比較して,PublicMデータセット上での優れた性能を示す。
- 参考スコア(独自算出の注目度): 1.5146068448101746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detection of malignant lesions on mammography images is extremely important for early breast cancer diagnosis. In clinical practice, images are acquired from two different angles, and radiologists can fully utilize information from both views, simultaneously locating the same lesion. However, for automatic detection approaches such information fusion remains a challenge. In this paper, we propose a new model called MAMM-Net, which allows the processing of both mammography views simultaneously by sharing information not only on an object level, as seen in existing works, but also on a feature level. MAMM-Net's key component is the Fusion Layer, based on deformable attention and designed to increase detection precision while keeping high recall. Our experiments show superior performance on the public DDSM dataset compared to the previous state-of-the-art model, while introducing new helpful features such as lesion annotation on pixel-level and classification of lesions malignancy.
- Abstract(参考訳): 乳腺画像上悪性病変の検出は早期乳癌の診断において極めて重要である。
臨床では、画像は2つの異なる角度から取得され、放射線技師は両方の視点から情報を十分に活用し、同時に同じ病変を特定できる。
しかし、自動検出手法では、そのような情報融合は依然として課題である。
本稿では,MAMM-Netと呼ばれる新しいモデルを提案し,既存の作品に見られるように,オブジェクトレベルだけでなく特徴レベルにも情報を共有することで,両マンモグラフィビューの同時処理を可能にする。
MAMM-NetのキーコンポーネントはFusion Layerであり、変形可能な注意に基づいて、高いリコールを維持しながら検出精度を高めるように設計されている。
本実験は, 従来の最先端モデルと比較して, パブリックDDSMデータセットにおいて優れた性能を示すとともに, 画素レベルの病変診断や悪性腫瘍の分類など, 新たな有用な特徴を導入している。
関連論文リスト
- Deep BI-RADS Network for Improved Cancer Detection from Mammograms [3.686808512438363]
テキスト型BI-RADS病変記述子と視覚マンモグラムを併用した新しいマルチモーダル手法を提案する。
提案手法は,これらの異なるモダリティを効果的に融合させるために,反復的な注意層を用いる。
CBIS-DDSMデータセットの実験では、すべてのメトリクスで大幅に改善されている。
論文 参考訳(メタデータ) (2024-11-16T21:32:51Z) - Spatial-aware Attention Generative Adversarial Network for Semi-supervised Anomaly Detection in Medical Image [63.59114880750643]
本稿では,一級半教師付き健康画像生成のための空間意識生成ネットワーク(SAGAN)について紹介する。
SAGANは、正常な画像の復元と擬似異常画像の復元によって導かれる、ラベルのないデータに対応する高品質な健康画像を生成する。
3つの医学データセットに対する大規模な実験は、提案されたSAGANが最先端の手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-05-21T15:41:34Z) - Discrepancy-based Diffusion Models for Lesion Detection in Brain MRI [1.8420387715849447]
拡散確率モデル(DPM)はコンピュータビジョンタスクにおいて大きな効果を示した。
彼らの顕著なパフォーマンスはラベル付きデータセットに大きく依存しており、医療画像への適用を制限する。
本稿では,異なる特徴を取り入れた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-08T11:26:49Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - MAEDiff: Masked Autoencoder-enhanced Diffusion Models for Unsupervised
Anomaly Detection in Brain Images [40.89943932086941]
脳画像における教師なし異常検出のためのMasked Autoencoder-enhanced Diffusion Model (MAEDiff)を提案する。
MAEDiffは、階層的なパッチ分割を含む。上層パッチを重畳して健全なイメージを生成し、サブレベルパッチで動作するマスク付きオートエンコーダに基づくメカニズムを実装し、未通知領域の状態を高める。
論文 参考訳(メタデータ) (2024-01-19T08:54:54Z) - AlignTransformer: Hierarchical Alignment of Visual Regions and Disease
Tags for Medical Report Generation [50.21065317817769]
本稿では,Align Hierarchical Attention (AHA)とMulti-Grained Transformer (MGT)モジュールを含むAlign Transformerフレームワークを提案する。
パブリックなIU-XrayとMIMIC-CXRデータセットの実験は、AlignTransformerが2つのデータセットの最先端メソッドと競合する結果が得られることを示している。
論文 参考訳(メタデータ) (2022-03-18T13:43:53Z) - Act Like a Radiologist: Towards Reliable Multi-view Correspondence
Reasoning for Mammogram Mass Detection [49.14070210387509]
マンモグラム質量検出のための解剖学的グラフ畳み込みネットワーク(AGN)を提案する。
AGNはマンモグラムの質量検出用に調整されており、既存の検出手法を多視点推論能力で実現している。
2つの標準ベンチマークの実験によると、AGNは最先端のパフォーマンスを大幅に上回っている。
論文 参考訳(メタデータ) (2021-05-21T06:48:34Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Dual Convolutional Neural Networks for Breast Mass Segmentation and
Diagnosis in Mammography [18.979126709943085]
本稿では,マンモグラム画像処理のための新しいディープラーニングフレームワークを提案する。
本手法はデュアルパスアーキテクチャで構築され,そのマッピングをデュアルプロブレム方式で解決する。
実験の結果,DualCoreNetはマンモグラフィーのセグメンテーションと分類を同時に達成し,最近の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-07T02:23:36Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。