論文の概要: Domain generalization in deep learning-based mass detection in
mammography: A large-scale multi-center study
- arxiv url: http://arxiv.org/abs/2201.11620v1
- Date: Thu, 27 Jan 2022 16:26:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 13:20:45.615174
- Title: Domain generalization in deep learning-based mass detection in
mammography: A large-scale multi-center study
- Title(参考訳): マンモグラフィにおける深層学習に基づく質量検出における領域一般化--大規模多施設共同研究
- Authors: Lidia Garrucho, Kaisar Kushibar, Socayna Jouide, Oliver Diaz, Laura
Igual and Karim Lekadir
- Abstract要約: 本研究では,デジタルマンモグラフィーにおける集団検出のための深層学習手法の領域一般化について検討する。
トランスフォーマーベースモデルを含む8つの最先端検出手法の性能を比較し、単一のドメインでトレーニングし、5つの未知のドメインでテストする。
その結果、5つの領域のうち4つの領域において、最先端のトランスファーベースアプローチよりもワークフローが一般化されていることがわかった。
- 参考スコア(独自算出の注目度): 2.179187990591568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer-aided detection systems based on deep learning have shown great
potential in breast cancer detection. However, the lack of domain
generalization of artificial neural networks is an important obstacle to their
deployment in changing clinical environments. In this work, we explore the
domain generalization of deep learning methods for mass detection in digital
mammography and analyze in-depth the sources of domain shift in a large-scale
multi-center setting. To this end, we compare the performance of eight
state-of-the-art detection methods, including Transformer-based models, trained
in a single domain and tested in five unseen domains. Moreover, a single-source
mass detection training pipeline is designed to improve the domain
generalization without requiring images from the new domain. The results show
that our workflow generalizes better than state-of-the-art transfer
learning-based approaches in four out of five domains while reducing the domain
shift caused by the different acquisition protocols and scanner manufacturers.
Subsequently, an extensive analysis is performed to identify the covariate
shifts with bigger effects on the detection performance, such as due to
differences in patient age, breast density, mass size, and mass malignancy.
Ultimately, this comprehensive study provides key insights and best practices
for future research on domain generalization in deep learning-based breast
cancer detection.
- Abstract(参考訳): 深層学習に基づくコンピュータ支援検出システムは乳がん検出に大きな可能性を示している。
しかし、ニューラルネットワークの領域一般化の欠如は、臨床環境の変化への展開にとって重要な障害である。
本研究では,デジタルマンモグラフィにおける集団検出のための深層学習法のドメイン一般化を探究し,大規模マルチセンター環境での領域シフトの源を深く分析する。
そこで本研究では,Transformerベースのモデルを含む8つの最先端検出手法の性能を比較し,単一のドメインでトレーニングし,未知の5つのドメインでテストする。
さらに、単一ソースの質量検出訓練パイプラインは、新しいドメインの画像を必要とすることなく、ドメインの一般化を改善するように設計されている。
その結果,5つの領域のうち4つの領域において,最先端のトランスファーベースアプローチよりもワークフローを一般化し,異なる取得プロトコルやスキャナーメーカーによるドメインシフトを低減することができた。
その後, 患者年齢, 乳房密度, 体重, 大量悪性度の違いなど, 検出性能により大きな影響を及ぼす共変量変化を特定するために, 広範囲な解析を行った。
最終的に、この包括的な研究は、深層学習に基づく乳癌検出における領域の一般化に関する今後の研究に重要な洞察とベストプラクティスを提供する。
関連論文リスト
- BTMuda: A Bi-level Multi-source unsupervised domain adaptation framework for breast cancer diagnosis [16.016147407064654]
乳がん診断のためのBTMudaと呼ばれるbi-level Multi-source unsupervised domain adaptation法を構築した。
ドメインシフト問題をドメイン内とドメイン間という2つのレベルに分割することで、ドメインシフトの問題に対処する。
本手法は,3つのパブリックマンモグラフィーデータセットの実験において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-08-30T07:25:53Z) - PathoWAve: A Deep Learning-based Weight Averaging Method for Improving Domain Generalization in Histopathology Images [13.362177469092963]
病理画像解析における領域シフト現象に対処するために,病理量平均化(PathoWAve)を導入する。
The results on Camelyon17 WILDS dataset shows PathoWAve's superiority than previous proposed method。
論文 参考訳(メタデータ) (2024-06-21T23:25:44Z) - Domain Generalization for Mammographic Image Analysis with Contrastive
Learning [62.25104935889111]
効果的なディープラーニングモデルのトレーニングには、さまざまなスタイルと品質を備えた大規模なデータが必要である。
より優れたスタイルの一般化能力を備えた深層学習モデルを実現するために,新しいコントラスト学習法が開発された。
提案手法は,様々なベンダスタイルドメインのマンモグラムや,いくつかのパブリックデータセットを用いて,広範囲かつ厳密に評価されている。
論文 参考訳(メタデータ) (2023-04-20T11:40:21Z) - DKMA-ULD: Domain Knowledge augmented Multi-head Attention based Robust
Universal Lesion Detection [19.165942326142538]
本稿では,1つのデータセットであるDeepLesionをトレーニングすることにより,全身の臓器にまたがる病変を検出できる,堅牢な普遍的病変検出(ULD)ネットワークを提案する。
我々は,新しい畳み込み型マルチヘッド自己保持モジュールを用いて,様々な強度のCTスライスを解析した。
約32KのCTスキャンと全臓器に注視病変を付加したDeepLesionデータセットを用いて,本ネットワークの有効性を検証した。
論文 参考訳(メタデータ) (2022-03-14T06:54:28Z) - Assessing generalisability of deep learning-based polyp detection and
segmentation methods through a computer vision challenge [11.914243295893984]
ポリープは大腸内視鏡で同定されたよく知られたがん前駆体である。
大腸ポリープのサーベイランスと除去は、非常に操作性に依存した手順である。
大腸ポリープの欠失検出率と不完全除去率がある。
論文 参考訳(メタデータ) (2022-02-24T11:25:52Z) - Unsupervised deep learning techniques for powdery mildew recognition
based on multispectral imaging [63.62764375279861]
本稿では,キュウリ葉の粉状ミドウを自動的に認識する深層学習手法を提案する。
マルチスペクトルイメージングデータに適用した教師なし深層学習技術に焦点をあてる。
本稿では, オートエンコーダアーキテクチャを用いて, 疾患検出のための2つの手法を提案する。
論文 参考訳(メタデータ) (2021-12-20T13:29:13Z) - Domain Generalization for Mammography Detection via Multi-style and
Multi-view Contrastive Learning [47.30824944649112]
限られたリソースを持つ様々なベンダーに対して,ディープラーニングモデルの一般化能力を高めるために,新しいコントラスト学習手法を開発した。
バックボーンネットワークは、さまざまなベンダースタイルに不変機能を組み込むために、マルチスタイルでマルチビューで教師なしの自己学習スキームで訓練されている。
実験結果から,本手法は目視領域と目視領域の両方における検出性能を効果的に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-21T14:29:50Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Shape-aware Meta-learning for Generalizing Prostate MRI Segmentation to
Unseen Domains [68.73614619875814]
前立腺MRIのセグメント化におけるモデル一般化を改善するために,新しい形状認識メタラーニング手法を提案する。
実験結果から,本手法は未確認領域の6つの設定すべてにおいて,最先端の一般化手法を一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-04T07:56:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。