論文の概要: Act Like a Radiologist: Towards Reliable Multi-view Correspondence
Reasoning for Mammogram Mass Detection
- arxiv url: http://arxiv.org/abs/2105.10160v1
- Date: Fri, 21 May 2021 06:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:25:55.478406
- Title: Act Like a Radiologist: Towards Reliable Multi-view Correspondence
Reasoning for Mammogram Mass Detection
- Title(参考訳): 放射線科医としての行為 : マンモグラムマス検出のための信頼性の高い多視点対応推論を目指して
- Authors: Yuhang Liu, Fandong Zhang, Chaoqi Chen, Siwen Wang, Yizhou Wang,
Yizhou Yu
- Abstract要約: マンモグラム質量検出のための解剖学的グラフ畳み込みネットワーク(AGN)を提案する。
AGNはマンモグラムの質量検出用に調整されており、既存の検出手法を多視点推論能力で実現している。
2つの標準ベンチマークの実験によると、AGNは最先端のパフォーマンスを大幅に上回っている。
- 参考スコア(独自算出の注目度): 49.14070210387509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mammogram mass detection is crucial for diagnosing and preventing the breast
cancers in clinical practice. The complementary effect of multi-view mammogram
images provides valuable information about the breast anatomical prior
structure and is of great significance in digital mammography interpretation.
However, unlike radiologists who can utilize the natural reasoning ability to
identify masses based on multiple mammographic views, how to endow the existing
object detection models with the capability of multi-view reasoning is vital
for decision-making in clinical diagnosis but remains the boundary to explore.
In this paper, we propose an Anatomy-aware Graph convolutional Network (AGN),
which is tailored for mammogram mass detection and endows existing detection
methods with multi-view reasoning ability. The proposed AGN consists of three
steps. Firstly, we introduce a Bipartite Graph convolutional Network (BGN) to
model the intrinsic geometric and semantic relations of ipsilateral views.
Secondly, considering that the visual asymmetry of bilateral views is widely
adopted in clinical practice to assist the diagnosis of breast lesions, we
propose an Inception Graph convolutional Network (IGN) to model the structural
similarities of bilateral views. Finally, based on the constructed graphs, the
multi-view information is propagated through nodes methodically, which equips
the features learned from the examined view with multi-view reasoning ability.
Experiments on two standard benchmarks reveal that AGN significantly exceeds
the state-of-the-art performance. Visualization results show that AGN provides
interpretable visual cues for clinical diagnosis.
- Abstract(参考訳): マンモグラムの質量検出は乳癌の診断と予防に不可欠である。
多視点マンモグラフィ画像の補完効果は,乳腺解剖学的先行構造に関する貴重な情報を提供し,デジタルマンモグラフィの解釈において非常に重要である。
しかし、複数のマンモグラフィビューに基づいて質量を識別する自然推論能力を利用する放射線科医とは異なり、マルチビュー推論の能力を持つ既存の物体検出モデルをどのように付与するかは、臨床診断における意思決定には不可欠であるが、探索すべき境界である。
本稿では,マンモグラム質量検出用に調整された解剖学的アウェアグラフ畳み込みネットワーク (agn) を提案する。
提案されたAGNは3つのステップから構成される。
まず,両部グラフ畳み込みネットワーク(BGN)を導入し,内在的な幾何学的・意味的関係をモデル化する。
次に, 乳腺病変の診断補助として, 両側視の非対称性が臨床で広く採用されていることを考慮し, 両側視の構造的類似性をモデル化するインセプショングラフ畳み込みネットワーク (ign) を提案する。
最後に、構築したグラフに基づいて、マルチビュー情報をノードを通して手法的に伝播し、検査結果から得られた特徴をマルチビュー推論能力に装備する。
2つの標準ベンチマークの実験によると、AGNは最先端のパフォーマンスを大幅に上回っている。
AGNは臨床診断に解釈可能な視覚的手がかりを提供する。
関連論文リスト
- Deep BI-RADS Network for Improved Cancer Detection from Mammograms [3.686808512438363]
テキスト型BI-RADS病変記述子と視覚マンモグラムを併用した新しいマルチモーダル手法を提案する。
提案手法は,これらの異なるモダリティを効果的に融合させるために,反復的な注意層を用いる。
CBIS-DDSMデータセットの実験では、すべてのメトリクスで大幅に改善されている。
論文 参考訳(メタデータ) (2024-11-16T21:32:51Z) - Semantics-Aware Attention Guidance for Diagnosing Whole Slide Images [5.856390270089738]
我々はSemantics-Aware Attention Guidance(SAG)という新しいフレームワークを紹介する。
SAGは,1) 診断関連エンティティを注意信号に変換する技術,2) 意味的に重要な情報を効率的に統合する柔軟な注意損失を含む。
2つの異なるがんデータセットに対する実験は、精度、精度、リコールにおいて一貫した改善を示す。
論文 参考訳(メタデータ) (2024-04-16T20:37:14Z) - Intensive Vision-guided Network for Radiology Report Generation [22.030289124516326]
医用画像エンコーダにおける多視点視覚知覚をシミュレートし統合するためのGIAモジュールを提案する。
また,複数モーダル信号を用いて正確な一致したレポートを生成する方法,すなわち,予測済みの単語を領域認識型視覚コンテンツと統合して次の単語予測を行う方法について検討する。
論文 参考訳(メタデータ) (2024-02-06T06:46:46Z) - Mining Gaze for Contrastive Learning toward Computer-Assisted Diagnosis [61.089776864520594]
医用画像のテキストレポートの代替としてアイトラッキングを提案する。
医用画像を読み,診断する際に放射線科医の視線を追跡することにより,その視覚的注意と臨床的理由を理解することができる。
対照的な学習フレームワークのためのプラグイン・アンド・プレイモジュールとして,McGIP (McGIP) を導入した。
論文 参考訳(メタデータ) (2023-12-11T02:27:45Z) - Post-Hoc Explainability of BI-RADS Descriptors in a Multi-task Framework
for Breast Cancer Detection and Segmentation [48.08423125835335]
MT-BI-RADSは乳房超音波(BUS)画像における腫瘍検出のための新しい深層学習手法である。
放射線科医が腫瘍の悪性度を予測するための意思決定プロセスを理解するための3つのレベルの説明を提供する。
論文 参考訳(メタデータ) (2023-08-27T22:07:42Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Dual Convolutional Neural Networks for Breast Mass Segmentation and
Diagnosis in Mammography [18.979126709943085]
本稿では,マンモグラム画像処理のための新しいディープラーニングフレームワークを提案する。
本手法はデュアルパスアーキテクチャで構築され,そのマッピングをデュアルプロブレム方式で解決する。
実験の結果,DualCoreNetはマンモグラフィーのセグメンテーションと分類を同時に達成し,最近の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-07T02:23:36Z) - Towards Explainable Graph Representations in Digital Pathology [9.369422379741982]
グラフ内の診断上重要な要素を強調するコンパクトなインスタンスごとの説明を導出するためのポストホック説明器を提案する。
乳がんサブタイプにおける細胞および細胞間相互作用の解析に焦点をあてるが、提案する説明器は、デジタル病理学における他のトポロジ的表現にまで拡張できるほど汎用的である。
論文 参考訳(メタデータ) (2020-07-01T08:05:26Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。