論文の概要: Dual-view Correlation Hybrid Attention Network for Robust Holistic
Mammogram Classification
- arxiv url: http://arxiv.org/abs/2306.10676v1
- Date: Mon, 19 Jun 2023 02:34:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 19:15:21.670321
- Title: Dual-view Correlation Hybrid Attention Network for Robust Holistic
Mammogram Classification
- Title(参考訳): ロバスト・ホロスティック・マンモグラム分類のためのデュアルビュー相関ハイブリッドアテンションネットワーク
- Authors: Zhiwei Wang, Junlin Xian, Kangyi Liu, Xin Li, Qiang Li, Xin Yang
- Abstract要約: マルチビュー相関型ハイブリット・アテンション・ネットワーク(DCHA-Net)を提案する。
局所的関係と非局所的注目ブロックからなるハイブリッドアテンションモジュールを提案し,その相関関係におけるペアビューの空間的不整合を緩和する。
InbreastとCBIS-DDSMの2つの公開データセットの実験結果から、DCHA-Netはビュー間の特徴相関を適切に保存し、最大化することを示した。
- 参考スコア(独自算出の注目度): 13.588373358392142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mammogram image is important for breast cancer screening, and typically
obtained in a dual-view form, i.e., cranio-caudal (CC) and mediolateral oblique
(MLO), to provide complementary information. However, previous methods mostly
learn features from the two views independently, which violates the clinical
knowledge and ignores the importance of dual-view correlation. In this paper,
we propose a dual-view correlation hybrid attention network (DCHA-Net) for
robust holistic mammogram classification. Specifically, DCHA-Net is carefully
designed to extract and reinvent deep features for the two views, and meanwhile
to maximize the underlying correlations between them. A hybrid attention
module, consisting of local relation and non-local attention blocks, is
proposed to alleviate the spatial misalignment of the paired views in the
correlation maximization. A dual-view correlation loss is introduced to
maximize the feature similarity between corresponding strip-like regions with
equal distance to the chest wall, motivated by the fact that their features
represent the same breast tissues, and thus should be highly-correlated.
Experimental results on two public datasets, i.e., INbreast and CBIS-DDSM,
demonstrate that DCHA-Net can well preserve and maximize feature correlations
across views, and thus outperforms the state-of-the-arts for classifying a
whole mammogram as malignant or not.
- Abstract(参考訳): マンモグラフィー画像は乳癌検診において重要であり、典型的には二重視形態、すなわち頭蓋・頭蓋(CC)と側方斜視(MLO)で得られ、相補的な情報を提供する。
しかし,従来の手法は,臨床知識に反し,二重視点相関の重要性を無視する2つの視点から特徴を独立に学習する。
本稿では,頑健なマンモグラム分類のための二重視点相関型ハイブリットアテンションネットワーク(DCHA-Net)を提案する。
具体的には、dcha-netは2つのビューの深い機能を抽出し、再発明するために慎重に設計されている。
局所的関係と非局所的注意ブロックからなるハイブリッド注意モジュールを提案し,相関最大化における対の視点の空間的不一致を緩和する。
胸壁と等距離の帯状領域間の特徴の類似性を最大化するために,両眼相関損失が導入された。
2つの公開データセット、すなわちinbreastとcbis-ddsmの実験結果は、dcha-netがビュー間の特徴相関を保存し最大化できることを示し、その結果、マンモグラム全体を悪性かどうかを分類する最先端技術を上回る。
関連論文リスト
- Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Attention-Map Augmentation for Hypercomplex Breast Cancer Classification [6.098816895102301]
本稿では,乳がん分類の問題点を克服する枠組みとして,パラメータ化ハイパーコンプレックス・アテンション・マップ(PHAM)を提案する。
フレームワークには2つの大きな利点がある。まず注意マップがROIに関する重要な情報を提供し、ニューラルネットワークがそれに集中できるようにする。
私たちは、注目に基づく最先端のネットワークと、我々のアプローチの真の価値を超越しています。
論文 参考訳(メタデータ) (2023-10-11T16:28:24Z) - Improving Vision Anomaly Detection with the Guidance of Language
Modality [64.53005837237754]
本稿では,マルチモーダルの観点から視覚モダリティの課題に取り組む。
本稿では,冗長な情報問題とスパース空間問題に対処するために,クロスモーダルガイダンス(CMG)を提案する。
視覚異常検出のためのよりコンパクトな潜在空間を学習するために、CMLEは言語モダリティから相関構造行列を学習する。
論文 参考訳(メタデータ) (2023-10-04T13:44:56Z) - Debiasing Counterfactuals In the Presence of Spurious Correlations [0.98342301244574]
我々は、(i)人気のデバイアス分類器と(ii)対実画像生成の両方を統合した、最初のエンドツーエンドトレーニングフレームワークを紹介する。
以上の結果から, 人口全体にわたる一般化可能なマーカーを学習し, (ii) 急激な相関を無視し, 根底にある疾患の病理に焦点をあてる脱バイアス法が実証された。
論文 参考訳(メタデータ) (2023-08-21T19:01:45Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - Check and Link: Pairwise Lesion Correspondence Guides Mammogram Mass
Detection [26.175654159429943]
CL-Netは、病変検出とペアワイズ対応をエンドツーエンドで学習するために提案されている。
CL-Netは対方向の病変対応を正確に理解する。
これは、低いFPI体制において、以前の方法よりも大きなマージンで上回っている。
論文 参考訳(メタデータ) (2022-09-13T08:26:07Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Act Like a Radiologist: Towards Reliable Multi-view Correspondence
Reasoning for Mammogram Mass Detection [49.14070210387509]
マンモグラム質量検出のための解剖学的グラフ畳み込みネットワーク(AGN)を提案する。
AGNはマンモグラムの質量検出用に調整されており、既存の検出手法を多視点推論能力で実現している。
2つの標準ベンチマークの実験によると、AGNは最先端のパフォーマンスを大幅に上回っている。
論文 参考訳(メタデータ) (2021-05-21T06:48:34Z) - COIN: Contrastive Identifier Network for Breast Mass Diagnosis in
Mammography [16.603205672169608]
マンモグラフィーにおけるコンピュータ支援乳がん診断は, マンモグラフィーデータの不足とデータ絡み合いから生じる課題である。
本論文では,対比拡大とマニホールドに基づく対比学習を統合した深層学習フレームワークであるContrastive Identifier Network(textscCOIN)を提案する。
COINは、乳がん診断問題を解決するための最新の関連アルゴリズムをかなりのマージンで上回り、93.4%の精度と95.0%のAUCスコアを達成しています。
論文 参考訳(メタデータ) (2020-12-29T10:02:02Z) - Dual Convolutional Neural Networks for Breast Mass Segmentation and
Diagnosis in Mammography [18.979126709943085]
本稿では,マンモグラム画像処理のための新しいディープラーニングフレームワークを提案する。
本手法はデュアルパスアーキテクチャで構築され,そのマッピングをデュアルプロブレム方式で解決する。
実験の結果,DualCoreNetはマンモグラフィーのセグメンテーションと分類を同時に達成し,最近の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-07T02:23:36Z) - Dynamic Graph Correlation Learning for Disease Diagnosis with Incomplete
Labels [66.57101219176275]
胸部X線画像上の疾患診断は,多ラベル分類の課題である。
本稿では,異なる疾患間の相互依存を調査する新たな視点を提示する病的診断グラフ畳み込みネットワーク(DD-GCN)を提案する。
本手法は,相関学習のための動的隣接行列を用いた特徴写像上のグラフを初めて構築する手法である。
論文 参考訳(メタデータ) (2020-02-26T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。