論文の概要: Screener: Self-supervised Pathology Segmentation Model for 3D Medical Images
- arxiv url: http://arxiv.org/abs/2502.08321v1
- Date: Wed, 12 Feb 2025 11:37:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:48:09.138589
- Title: Screener: Self-supervised Pathology Segmentation Model for 3D Medical Images
- Title(参考訳): スクリーニング:3次元医用画像の自己教師型病理分類モデル
- Authors: Mikhail Goncharov, Eugenia Soboleva, Mariia Donskova, Ivan Oseledets, Marina Munkhoeva, Maxim Panov,
- Abstract要約: 我々は、教師なしの視覚異常セグメンテーション問題として、病理的セグメンテーションの枠組みを定めている。
既存の密度ベースUVASフレームワークを2つの重要なイノベーションで強化する。
当社のモデルであるScreenerは,4つの大規模テストデータセットにおいて,既存のUVASメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 7.466495250192545
- License:
- Abstract: Accurate segmentation of all pathological findings in 3D medical images remains a significant challenge, as supervised models are limited to detecting only the few pathology classes annotated in existing datasets. To address this, we frame pathology segmentation as an unsupervised visual anomaly segmentation (UVAS) problem, leveraging the inherent rarity of pathological patterns compared to healthy ones. We enhance the existing density-based UVAS framework with two key innovations: (1) dense self-supervised learning (SSL) for feature extraction, eliminating the need for supervised pre-training, and (2) learned, masking-invariant dense features as conditioning variables, replacing hand-crafted positional encodings. Trained on over 30,000 unlabeled 3D CT volumes, our model, Screener, outperforms existing UVAS methods on four large-scale test datasets comprising 1,820 scans with diverse pathologies. Code and pre-trained models will be made publicly available.
- Abstract(参考訳): 3次元医用画像におけるすべての病理所見の正確なセグメンテーションは、教師付きモデルが既存のデータセットに注釈付けされている数少ない病理クラスのみを検出することに制限されているため、依然として重要な課題である。
そこで我々は,病的分類を,健常者と比較して病的パターンの固有な希少性を生かし,教師なし視覚異常セグメンテーション(UVAS)問題として捉えた。
1) 特徴抽出のための高密度自己教師あり学習(SSL)、2) 教師付き事前学習の必要性を排除し、(2) 条件変数としてのマスキング不変の高密度特徴を学習し、手作りの位置エンコーディングを置き換える。
我々のモデルであるScreenerは、3万以上のラベルのない3DCTボリュームでトレーニングされ、様々な病態を持つ1,820個のスキャンからなる4つの大規模テストデータセットにおいて、既存のUVASメソッドよりも優れています。
コードと事前訓練されたモデルは一般公開される予定だ。
関連論文リスト
- Abnormality-Driven Representation Learning for Radiology Imaging [0.8321462983924758]
病変強調型コントラスト学習(LeCL)は,CTスキャンの異なる部位にわたる2次元軸方向スライスにおける異常により引き起こされる視覚的表現を得るための新しい手法である。
本研究は, 腫瘍病変位置, 肺疾患検出, 患者ステージングの3つの臨床的課題に対するアプローチを, 最先端の4つの基礎モデルと比較した。
論文 参考訳(メタデータ) (2024-11-25T13:53:26Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Promise:Prompt-driven 3D Medical Image Segmentation Using Pretrained
Image Foundation Models [13.08275555017179]
単点プロンプトのみを用いたプロンプト駆動型3次元医用画像分割モデルProMISeを提案する。
今回,大腸癌と膵腫瘍の2つの領域に分布する2つのパブリックデータセットについて検討した。
論文 参考訳(メタデータ) (2023-10-30T16:49:03Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - A Novel Automated Classification and Segmentation for COVID-19 using 3D
CT Scans [5.5957919486531935]
新型コロナウイルス(COVID-19)による肺のCT画像では、地上ガラスの濁度が専門的な診断を必要とする最も一般的な発見である。
一部の研究者は、専門知識の欠如による専門的診断専門医の代替となる、関連するDLモデルを提案する。
肺病変の分類では, 新型コロナウイルス, 肺炎, 正常の3種類で94.52%の精度が得られた。
論文 参考訳(メタデータ) (2022-08-04T22:14:18Z) - Feature Representation Learning for Robust Retinal Disease Detection
from Optical Coherence Tomography Images [0.0]
眼科画像は、異なる網膜変性疾患を区別する自動化技術で失敗する、同一の外観の病理を含んでいる可能性がある。
本研究では,3つの学習ヘッドを持つ堅牢な疾患検出アーキテクチャを提案する。
2つのOCTデータセットによる実験結果から,提案モデルが既存の最先端モデルよりも精度,解釈可能性,堅牢性に優れ,網膜外網膜疾患の検出に有用であることが示唆された。
論文 参考訳(メタデータ) (2022-06-24T07:59:36Z) - 3D unsupervised anomaly detection and localization through virtual
multi-view projection and reconstruction: Clinical validation on low-dose
chest computed tomography [2.2302915692528367]
仮想多視点投影と再構成と呼ばれるコンピュータ支援診断のためのディープニューラルネットワークに基づく手法を提案する。
本手法は, 教師あり学習に基づくゴールド標準と比較して, 患者レベルの異常検出を10%改善する。
異常領域を93%の精度でローカライズし、高い性能を示す。
論文 参考訳(メタデータ) (2022-06-18T13:22:00Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。