論文の概要: Multi-view Local Co-occurrence and Global Consistency Learning Improve
Mammogram Classification Generalisation
- arxiv url: http://arxiv.org/abs/2209.10478v1
- Date: Wed, 21 Sep 2022 16:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 16:45:00.599381
- Title: Multi-view Local Co-occurrence and Global Consistency Learning Improve
Mammogram Classification Generalisation
- Title(参考訳): 多視点局所共起とグローバル一貫性学習によるマンモグラム分類の一般化
- Authors: Yuanhong Chen, Hu Wang, Chong Wang, Yu Tian, Fengbei Liu, Michael
Elliott, Davis J. McCarthy, Helen Frazer, Gustavo Carneiro
- Abstract要約: 本稿では,放射線技師の読影手順を模倣する多視点グローバルローカル解析手法を提案する。
我々のモデルは、分類精度と一般化の点で競合する手法より優れている。
- 参考スコア(独自算出の注目度): 23.51938491048481
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: When analysing screening mammograms, radiologists can naturally process
information across two ipsilateral views of each breast, namely the
cranio-caudal (CC) and mediolateral-oblique (MLO) views. These multiple related
images provide complementary diagnostic information and can improve the
radiologist's classification accuracy. Unfortunately, most existing deep
learning systems, trained with globally-labelled images, lack the ability to
jointly analyse and integrate global and local information from these multiple
views. By ignoring the potentially valuable information present in multiple
images of a screening episode, one limits the potential accuracy of these
systems. Here, we propose a new multi-view global-local analysis method that
mimics the radiologist's reading procedure, based on a global consistency
learning and local co-occurrence learning of ipsilateral views in mammograms.
Extensive experiments show that our model outperforms competing methods, in
terms of classification accuracy and generalisation, on a large-scale private
dataset and two publicly available datasets, where models are exclusively
trained and tested with global labels.
- Abstract(参考訳): マンモグラフィーをスクリーニングする際、放射線技師は乳房の2つの側方視、すなわち頭蓋・頭蓋(CC)と中側斜視(MLO)の情報を自然に処理することができる。
これらの複数の関連画像は相補的な診断情報を提供し、放射線医の分類精度を向上させることができる。
残念なことに、世界中のラベル付きイメージでトレーニングされた既存のディープラーニングシステムは、これらの複数のビューからグローバルおよびローカル情報を共同分析し統合する能力が欠如している。
スクリーニングエピソードの複数の画像に存在する可能性のある貴重な情報を無視することで、これらのシステムの潜在的な精度を制限できる。
本稿では,マンモグラムにおける異側視のグローバル一貫性学習と局所共起学習に基づいて,放射線科医の読影手順を模倣した新しい多視点大局的局所解析法を提案する。
広範な実験により,我々のモデルは,大規模プライベートデータセットと2つの公開データセットにおいて,分類精度と一般化の観点から競合する手法よりも優れており,そこではモデルが排他的にトレーニングされ,グローバルラベルでテストされる。
関連論文リスト
- MV-Swin-T: Mammogram Classification with Multi-view Swin Transformer [0.257133335028485]
マンモグラフィ画像分類における課題に対処するために,トランスフォーマーに基づく革新的なマルチビューネットワークを提案する。
提案手法では,ウィンドウベースの動的アテンションブロックを導入し,マルチビュー情報の効果的な統合を容易にする。
論文 参考訳(メタデータ) (2024-02-26T04:41:04Z) - Multi-Level Global Context Cross Consistency Model for Semi-Supervised
Ultrasound Image Segmentation with Diffusion Model [0.0]
本研究では,Latent Diffusion Model (LDM) によって生成された画像を,半教師付き学習のためのラベル付き画像として利用するフレームワークを提案する。
提案手法により,確率分布の知識をセグメント化ネットワークに効果的に伝達することが可能となり,セグメント化精度が向上する。
論文 参考訳(メタデータ) (2023-05-16T14:08:24Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Cross Modal Global Local Representation Learning from Radiology Reports
and X-Ray Chest Images [0.0]
ディープラーニングモデルは、実際の問題にうまく適用できますが、これらのモデルのほとんどをトレーニングするには、大量のデータが必要です。
最近の手法では言語とビジョンを使用しているが、残念ながら一般には公開されていないデータセットに依存している。
本稿では,放射線学におけるマルチモーダル言語ビジョン領域のさらなる研究の道を開く。
論文 参考訳(メタデータ) (2023-01-26T06:02:28Z) - Application of Transfer Learning and Ensemble Learning in Image-level
Classification for Breast Histopathology [9.037868656840736]
CAD(Computer-Aided Diagnosis)では、従来の分類モデルでは、主に1つのネットワークを使って特徴を抽出する。
本稿では良性病変と悪性病変のバイナリ分類のための画像レベルラベルに基づく深層アンサンブルモデルを提案する。
結果: アンサンブルネットワークモデルにおいて、画像レベルのバイナリ分類は9,8.90%の精度を達成する。
論文 参考訳(メタデータ) (2022-04-18T13:31:53Z) - Multi-View Hypercomplex Learning for Breast Cancer Screening [7.147856898682969]
伝統的に、乳がん分類のための深層学習法は単一視点解析を行う。
放射線科医は マンモグラフィー検査を構成する4つのビューを 同時に分析します
パラメータ化ハイパープレックスニューラルネットワークを用いた多視点乳がん分類法を提案する。
論文 参考訳(メタデータ) (2022-04-12T13:32:31Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。