論文の概要: Prototypical Cross-domain Knowledge Transfer for Cervical Dysplasia
Visual Inspection
- arxiv url: http://arxiv.org/abs/2308.09983v1
- Date: Sat, 19 Aug 2023 11:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 18:40:32.395408
- Title: Prototypical Cross-domain Knowledge Transfer for Cervical Dysplasia
Visual Inspection
- Title(参考訳): 頚部異所性視力検査における原型クロスドメイン知識伝達
- Authors: Yichen Zhang, Yifang Yin, Ying Zhang, Zhenguang Liu, Zheng Wang, Roger
Zimmermann
- Abstract要約: そこで本研究では,異なるが関連する臨床研究で収集されたクロスドメイン頚部画像を利用して,モデルの性能を向上させることを提案する。
データセット間で伝達可能な情報を堅牢に学習するために,新しいプロトタイプベースの知識フィルタリング手法を提案する。
提案法は,最先端の頚椎椎間板形成検査において,Top-1の精度が4.7%向上した。
- 参考スコア(独自算出の注目度): 37.66559952448587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Early detection of dysplasia of the cervix is critical for cervical cancer
treatment. However, automatic cervical dysplasia diagnosis via visual
inspection, which is more appropriate in low-resource settings, remains a
challenging problem. Though promising results have been obtained by recent deep
learning models, their performance is significantly hindered by the limited
scale of the available cervix datasets. Distinct from previous methods that
learn from a single dataset, we propose to leverage cross-domain cervical
images that were collected in different but related clinical studies to improve
the model's performance on the targeted cervix dataset. To robustly learn the
transferable information across datasets, we propose a novel prototype-based
knowledge filtering method to estimate the transferability of cross-domain
samples. We further optimize the shared feature space by aligning the
cross-domain image representations simultaneously on domain level with early
alignment and class level with supervised contrastive learning, which endows
model training and knowledge transfer with stronger robustness. The empirical
results on three real-world benchmark cervical image datasets show that our
proposed method outperforms the state-of-the-art cervical dysplasia visual
inspection by an absolute improvement of 4.7% in top-1 accuracy, 7.0% in
precision, 1.4% in recall, 4.6% in F1 score, and 0.05 in ROC-AUC.
- Abstract(参考訳): 子宮頸部の異形成の早期発見は頸部癌治療に重要である。
しかし,低リソース環境においてより適切である視覚検査による頚椎脱臼の診断は依然として難しい課題である。
最近のディープラーニングモデルによって有望な結果が得られたが、それらの性能は利用可能なcervixデータセットの限られたスケールによって著しく妨げられている。
単一のデータセットから学習する従来の方法とは異なり、異なるが関連する臨床研究で収集されたクロスドメインの頚椎画像を活用して、対象とする子宮頸部データセットにおけるモデルの性能を向上させることを提案する。
データセット間での転送可能情報を堅牢に学習するために,クロスドメインサンプルの転送可能性を評価するためのプロトタイプベースの知識フィルタリング手法を提案する。
さらに、ドメインレベルでのクロスドメインイメージ表現と早期アライメントとクラスレベルを同時に調整し、モデルトレーニングと知識伝達を強い堅牢性で内在させる教師付きコントラスト学習により、共有機能空間をさらに最適化する。
3つの実世界ベンチマーク頚椎画像データセットを用いた実験結果から,提案手法は,top-1精度が4.7%,精度が7.0%,リコールが1.4%,f1スコアが4.6%,roc-aucが0.05であった。
関連論文リスト
- Cervical Cancer Detection Using Multi-Branch Deep Learning Model [0.6249768559720121]
本研究では,MHSA (Multi-Head Self-Attention) と畳み込みニューラルネットワーク (CNN) を用いた頚部癌の画像分類の自動化手法を提案する。
我々のモデルは98.522%の顕著な精度を達成し、他の医療画像認識タスクに適用可能であることを約束している。
論文 参考訳(メタデータ) (2024-08-20T02:44:48Z) - Deep Learning Descriptor Hybridization with Feature Reduction for Accurate Cervical Cancer Colposcopy Image Classification [0.9374652839580183]
本稿では,様々なディープラーニング記述子の強度と適切な特徴正規化を組み合わせたコンピュータ支援診断(CAD)システムを提案する。
本手法は,通常の分類と型分類の両方において,97%-100%の範囲での例外的な性能を実現する。
論文 参考訳(メタデータ) (2024-05-01T06:05:13Z) - MM-SurvNet: Deep Learning-Based Survival Risk Stratification in Breast
Cancer Through Multimodal Data Fusion [18.395418853966266]
乳がん生存リスク階層化のための新しい深層学習手法を提案する。
画像特徴抽出には視覚変換器、特にMaxViTモデルを使用し、患者レベルでの複雑な画像関係のキャプチャには自己注意を用いる。
二重クロスアテンション機構はこれらの特徴を遺伝データと融合させ、臨床データを最終層に組み込んで予測精度を高める。
論文 参考訳(メタデータ) (2024-02-19T02:31:36Z) - DACov: A Deeper Analysis of Data Augmentation on the Computed Tomography
Segmentation Problem [0.0]
本稿では,医療画像のセグメンテーション性能向上のためのデータ拡張手法について,より深く分析する。
本稿では,GAN(Generative Adversarial Networks)に基づく新しいデータ拡張手法を提案する。
GANに基づく手法と空間レベルの変換が,この問題における深層モデルの学習を改善する上で最も有望であることを示す。
論文 参考訳(メタデータ) (2023-03-10T13:41:20Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Open-Set Recognition of Breast Cancer Treatments [91.3247063132127]
オープンセット認識は、テストサンプルをトレーニングや"未知"から既知のクラスの1つに分類することで、分類タスクを一般化する
乳がん患者データに対して,画像データセットの最先端結果を実現するガウス混合変分オートエンコーダモデルを適用した。
より正確でロバストな分類結果が得られ,F1の平均値が24.5%上昇したばかりでなく,臨床環境への展開性の観点からも,オープンセット認識の再検討を行った。
論文 参考訳(メタデータ) (2022-01-09T04:35:55Z) - Cross-Site Severity Assessment of COVID-19 from CT Images via Domain
Adaptation [64.59521853145368]
CT画像によるコロナウイルス病2019(COVID-19)の早期かつ正確な重症度評価は,集中治療単位のイベント推定に有効である。
ラベル付きデータを拡張し、分類モデルの一般化能力を向上させるためには、複数のサイトからデータを集約する必要がある。
この課題は、軽度の感染症と重度の感染症の集団不均衡、部位間のドメイン分布の相違、不均一な特徴の存在など、いくつかの課題に直面する。
論文 参考訳(メタデータ) (2021-09-08T07:56:51Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Contrastive Cross-site Learning with Redesigned Net for COVID-19 CT
Classification [20.66003113364796]
新型コロナウイルス感染症(COVID-19)のパンデミックにより、世界の公衆衛生危機が数百カ国で拡大している。
画像解釈の面倒な作業量を削減するとともに、臨床診断を支援するために、CT画像を用いたCOVID-19識別自動化ツールの開発が望まれている。
本稿では、異種データセットを効果的に学習することで、正確な新型コロナウイルス識別を行うための新しい共同学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-15T11:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。