論文の概要: Exploring Self-Supervised Representation Learning For Low-Resource
Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2303.02245v1
- Date: Fri, 3 Mar 2023 22:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 20:52:26.342864
- Title: Exploring Self-Supervised Representation Learning For Low-Resource
Medical Image Analysis
- Title(参考訳): 低リソース医用画像解析のための自己教師あり表現学習の検討
- Authors: Soumitri Chattopadhyay, Soham Ganguly, Sreejit Chaudhury, Sayan Nag,
Samiran Chattopadhyay
- Abstract要約: 小型医用画像データセットにおける自己教師付き学習アルゴリズムの適用性について検討する。
ドメイン内の低リソースSSL事前トレーニングは、大規模なデータセットから学習を移行するための競合的なパフォーマンスをもたらす可能性がある。
- 参考スコア(独自算出の注目度): 2.458658951393896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of self-supervised learning (SSL) has mostly been attributed to
the availability of unlabeled yet large-scale datasets. However, in a
specialized domain such as medical imaging which is a lot different from
natural images, the assumption of data availability is unrealistic and
impractical, as the data itself is scanty and found in small databases,
collected for specific prognosis tasks. To this end, we seek to investigate the
applicability of self-supervised learning algorithms on small-scale medical
imaging datasets. In particular, we evaluate $4$ state-of-the-art SSL methods
on three publicly accessible \emph{small} medical imaging datasets. Our
investigation reveals that in-domain low-resource SSL pre-training can yield
competitive performance to transfer learning from large-scale datasets (such as
ImageNet). Furthermore, we extensively analyse our empirical findings to
provide valuable insights that can motivate for further research towards
circumventing the need for pre-training on a large image corpus. To the best of
our knowledge, this is the first attempt to holistically explore
self-supervision on low-resource medical datasets.
- Abstract(参考訳): 自己教師付き学習(SSL)の成功の大部分は、ラベルのない大規模なデータセットが利用可能であることによるものだ。
しかし、自然画像とは大きく異なる医療画像のような専門領域では、データ可用性の仮定は非現実的で非現実的であり、データそのものはスカンディティであり、特定の予後のタスクのために収集された小さなデータベースに含まれている。
そこで我々は,小規模医用画像データセットにおける自己教師付き学習アルゴリズムの適用性を検討する。
特に,公開アクセス可能な3つの医療画像データセットに対して,最先端SSL手法を4ドルで評価した。
我々の調査によると、ドメイン内の低リソースSSL事前トレーニングは、大規模なデータセット(ImageNetなど)から学習を転送する際の競合的な性能をもたらす。
さらに,大規模画像コーパスにおける事前学習の必要性を回避するためのさらなる研究に資する貴重な洞察を提供するために,経験的知見を広範囲に分析した。
われわれの知る限りでは、これは低リソースの医療データセットの自己超越性を探究する最初の試みである。
関連論文リスト
- Is in-domain data beneficial in transfer learning for landmarks
detection in x-ray images? [1.5348047288817481]
本研究では,大規模な自然画像データセットのみに事前学習したモデルに対して,小さな領域内X線画像データセットを使用することで,ランドマーク検出の精度が向上するかどうかを検討する。
我々の結果は、ドメイン内ソースデータセットを使用することで、ImageNetのドメイン外事前トレーニングに関して、限界があるか、まったく利益が得られないことを示している。
以上の結果から,大規模なアノテートデータセットが得られない場合の医用画像におけるロバストなランドマーク検出システムの開発が示唆された。
論文 参考訳(メタデータ) (2024-03-03T10:35:00Z) - Enhancing Network Initialization for Medical AI Models Using
Large-Scale, Unlabeled Natural Images [1.883452979588382]
自己教師付き学習(SSL)は胸部X線写真に適用して、堅牢な特徴を学習することができる。
我々は6つの大規模なグローバルデータセットから800,000個の胸部X線写真を用いてアプローチを検証した。
論文 参考訳(メタデータ) (2023-08-15T10:37:13Z) - Self-Supervised Pre-Training with Contrastive and Masked Autoencoder
Methods for Dealing with Small Datasets in Deep Learning for Medical Imaging [8.34398674359296]
医用画像の深層学習は、診断ミスのリスクを最小限に抑え、放射線医の作業量を減らし、診断を加速する可能性がある。
このようなディープラーニングモデルのトレーニングには,すべてのトレーニングサンプルに対するアノテーションを備えた,大規模かつ正確なデータセットが必要です。
この課題に対処するために、ディープラーニングモデルは、自己教師付き学習の分野からのメソッドを使用してアノテーションなしで、大規模な画像データセット上で事前トレーニングすることができる。
論文 参考訳(メタデータ) (2023-08-12T11:31:01Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Realistic Data Enrichment for Robust Image Segmentation in
Histopathology [2.248423960136122]
拡散モデルに基づく新しい手法を提案し、不均衡なデータセットを、表現不足なグループから有意な例で拡張する。
本手法は,限定的な臨床データセットを拡張して,機械学習パイプラインのトレーニングに適したものにする。
論文 参考訳(メタデータ) (2023-04-19T09:52:50Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Analysing the effectiveness of a generative model for semi-supervised
medical image segmentation [23.898954721893855]
自動セグメンテーションにおける最先端技術は、U-Netのような差別モデルを用いて、教師付き学習のままである。
半教師付き学習(SSL)は、より堅牢で信頼性の高いモデルを得るために、重複のないデータの豊富さを活用する。
セマンティックGANのような深層生成モデルは、医療画像分割問題に取り組むための真に実行可能な代替手段である。
論文 参考訳(メタデータ) (2022-11-03T15:19:59Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。