論文の概要: Anatomy-aware Self-supervised Learning for Anomaly Detection in Chest
Radiographs
- arxiv url: http://arxiv.org/abs/2205.04282v1
- Date: Mon, 9 May 2022 13:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 16:22:42.886891
- Title: Anatomy-aware Self-supervised Learning for Anomaly Detection in Chest
Radiographs
- Title(参考訳): 胸部x線写真における異常検出のための解剖学的自己教師付き学習
- Authors: Junya Sato, Yuki Suzuki, Tomohiro Wataya, Daiki Nishigaki, Kosuke
Kita, Kazuki Yamagata, Noriyuki Tomiyama, and Shoji Kido
- Abstract要約: 自己教師付き学習(SSL)は、手動のアノテーションなしでデータ固有の特徴を学習する訓練手法である。
解剖学的構造に基づく教師なし異常検出を可能にするSSLベースのモデルを提案する。
我々のモデルは、既存のUADモデルの中で最も高い92.1%、78.7%、81.9%の曲線下面積を示す。
- 参考スコア(独自算出の注目度): 1.7988006111525217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large numbers of labeled medical images are essential for the accurate
detection of anomalies, but manual annotation is labor-intensive and
time-consuming. Self-supervised learning (SSL) is a training method to learn
data-specific features without manual annotation. Several SSL-based models have
been employed in medical image anomaly detection. These SSL methods effectively
learn representations in several field-specific images, such as natural and
industrial product images. However, owing to the requirement of medical
expertise, typical SSL-based models are inefficient in medical image anomaly
detection. We present an SSL-based model that enables anatomical
structure-based unsupervised anomaly detection (UAD). The model employs the
anatomy-aware pasting (AnatPaste) augmentation tool. AnatPaste employs a
threshold-based lung segmentation pretext task to create anomalies in normal
chest radiographs, which are used for model pretraining. These anomalies are
similar to real anomalies and help the model recognize them. We evaluate our
model on three opensource chest radiograph datasets. Our model exhibit area
under curves (AUC) of 92.1%, 78.7%, and 81.9%, which are the highest among
existing UAD models. This is the first SSL model to employ anatomical
information as a pretext task. AnatPaste can be applied in various deep
learning models and downstream tasks. It can be employed for other modalities
by fixing appropriate segmentation. Our code is publicly available at:
https://github.com/jun-sato/AnatPaste.
- Abstract(参考訳): 異常の正確な検出には大量のラベル付き医用画像が必要であるが、手動アノテーションは労働集約的かつ時間のかかるものである。
自己教師付き学習(SSL)は、手動のアノテーションなしでデータ固有の特徴を学習する訓練手法である。
いくつかのSSLベースのモデルが医療画像異常検出に使用されている。
これらのSSL手法は、自然および工業製品画像など、フィールド固有の複数の画像の表現を効果的に学習する。
しかし、医学的専門知識の要求により、SSLベースの典型的なモデルは、医用画像異常検出において非効率である。
解剖学的構造に基づく教師なし異常検出(UAD)を可能にするSSLベースのモデルを提案する。
このモデルは解剖学的アウェアペースト(anatpaste)拡張ツールを使用している。
AnatPasteは、しきい値に基づく肺セグメンテーションプレテキストタスクを使用して、正常な胸部X線写真における異常を発生させ、モデル事前訓練に使用される。
これらの異常は実際の異常と似ており、モデルがそれらを認識するのに役立つ。
3つのオープンソースの胸部x線画像データセットを用いて評価を行った。
我々のモデルは、既存のUADモデルの中で最も高い92.1%、78.7%、81.9%の曲線下面積を示す。
これは、プリテキストタスクとして解剖学的情報を使用した最初のSSLモデルである。
AnatPasteはさまざまなディープラーニングモデルや下流タスクに適用できる。
適切なセグメンテーションを固定することで、他のモダリティにも適用することができる。
私たちのコードは、https://github.com/jun-sato/AnatPaste.comで公開されています。
関連論文リスト
- CROCODILE: Causality aids RObustness via COntrastive DIsentangled LEarning [8.975676404678374]
CROCODILEフレームワークを導入し、因果関係のツールがモデルの堅牢性からドメインシフトを育む方法を示します。
我々はCXRの多ラベル肺疾患分類に750万枚以上の画像を用いて本手法を適用した。
論文 参考訳(メタデータ) (2024-08-09T09:08:06Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - GenSelfDiff-HIS: Generative Self-Supervision Using Diffusion for Histopathological Image Segmentation [5.049466204159458]
自己教師付き学習(SSL)は、注釈のないデータのみを利用するモデルを構築することで、いくつかの欠点を提供する代替パラダイムである。
本稿では,生成拡散モデルを用いて病理像をセグメント化するためのSSLアプローチを提案する。
本手法は,拡散モデルがセグメント化タスクに似た画像から画像への変換タスクを効果的に解くことに基づく。
論文 参考訳(メタデータ) (2023-09-04T09:49:24Z) - Enhancing Network Initialization for Medical AI Models Using
Large-Scale, Unlabeled Natural Images [1.883452979588382]
自己教師付き学習(SSL)は胸部X線写真に適用して、堅牢な特徴を学習することができる。
我々は6つの大規模なグローバルデータセットから800,000個の胸部X線写真を用いてアプローチを検証した。
論文 参考訳(メタデータ) (2023-08-15T10:37:13Z) - DrasCLR: A Self-supervised Framework of Learning Disease-related and
Anatomy-specific Representation for 3D Medical Images [23.354686734545176]
3次元医用イメージングのための新しいSSLフレームワークDrasCLRを提案する。
本研究では, 局所解剖学的領域内の微妙な疾患パターンを捉えることを目的としており, 大規模領域にまたがる深刻な疾患パターンを表現することを目的としている。
論文 参考訳(メタデータ) (2023-02-21T01:32:27Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。