論文の概要: Towards Scalable Foundation Models for Digital Dermatology
- arxiv url: http://arxiv.org/abs/2411.05514v1
- Date: Fri, 08 Nov 2024 12:19:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:55:34.516145
- Title: Towards Scalable Foundation Models for Digital Dermatology
- Title(参考訳): デジタル皮膚科学のためのスケーラブルな基礎モデルを目指して
- Authors: Fabian Gröger, Philippe Gottfrois, Ludovic Amruthalingam, Alvaro Gonzalez-Jimenez, Simone Lionetti, Luis R. Soenksen-Martinez, Alexander A. Navarini, Marc Pouly,
- Abstract要約: 我々は、24万以上の皮膚画像のデータセット上で、自己教師付き学習(SSL)技術を用いてモデルを事前訓練する。
以上の結果から,本研究で事前訓練したモデルは汎用モデルを上回るだけでなく,臨床関連診断タスクにおける50倍のモデルの性能にもアプローチすることが示唆された。
- 参考スコア(独自算出の注目度): 35.62296620281727
- License:
- Abstract: The growing demand for accurate and equitable AI models in digital dermatology faces a significant challenge: the lack of diverse, high-quality labeled data. In this work, we investigate the potential of domain-specific foundation models for dermatology in addressing this challenge. We utilize self-supervised learning (SSL) techniques to pre-train models on a dataset of over 240,000 dermatological images from public and private collections. Our study considers several SSL methods and compares the resulting foundation models against domain-agnostic models like those pre-trained on ImageNet and state-of-the-art models such as MONET across 12 downstream tasks. Unlike previous research, we emphasize the development of smaller models that are more suitable for resource-limited clinical settings, facilitating easier adaptation to a broad range of use cases. Results show that models pre-trained in this work not only outperform general-purpose models but also approach the performance of models 50 times larger on clinically relevant diagnostic tasks. To promote further research in this direction, we publicly release both the training code and the foundation models, which can benefit clinicians in dermatological applications.
- Abstract(参考訳): デジタル皮膚学における正確で公平なAIモデルの需要の増加は、大きな課題に直面している。
本研究では,この課題に対処する上で,皮膚科領域固有の基礎モデルの可能性について検討する。
自己教師付き学習(SSL)技術を用いて、公開およびプライベートコレクションから24万以上の皮膚学画像のデータセット上でモデルを事前訓練する。
本研究はSSL方式について検討し,ImageNetで事前トレーニングしたドメインに依存しないモデルや,12の下流タスクを対象としたMONETなどの最先端モデルと比較する。
これまでの研究とは異なり、我々は、リソース制限された臨床環境に適したより小さなモデルの開発に重点を置いており、幅広いユースケースへの適応が容易になっている。
以上の結果から,本研究で事前訓練したモデルは汎用モデルを上回るだけでなく,臨床関連診断タスクにおける50倍のモデルの性能にもアプローチすることが示唆された。
この方向のさらなる研究を促進するため,皮膚科臨床医に有用なトレーニングコードと基礎モデルの両方を公開している。
関連論文リスト
- CanvOI, an Oncology Intelligence Foundation Model: Scaling FLOPS Differently [0.0]
本稿では,VT-g/10ベースの基盤モデルであるCanvOIについて述べる。
より大きなタイルサイズ(380 x 380ピクセル)と小さなパッチサイズ(10 x 10ピクセル)を導入することで、モデルの性能を最適化することができた。
論文 参考訳(メタデータ) (2024-09-04T17:15:44Z) - A Clinical Benchmark of Public Self-Supervised Pathology Foundation Models [2.124312824026935]
本研究は, がん診断を含む臨床関連エンドポイントと, 2つの医療センターからの標準病院手術中に発生する各種バイオマーカーとを関連づけた臨床スライドを含む病理データセットの収集について述べる。
これらのデータセットを利用して、公共病理基盤モデルの性能を体系的に評価し、新しい基礎モデルをトレーニングし、適切な事前学習モデルを選択するためのベストプラクティスに関する洞察を提供する。
論文 参考訳(メタデータ) (2024-07-09T02:33:13Z) - Meta-Transfer Derm-Diagnosis: Exploring Few-Shot Learning and Transfer Learning for Skin Disease Classification in Long-Tail Distribution [1.8024397171920885]
本研究は, エピソードおよび従来の訓練手法の利点と欠点を詳細に検討する。
最小限のラベル付き例で、我々のモデルは以前トレーニングされたモデルと比較して、かなりの情報獲得と性能向上を示した。
実験は, 最大10例の2方向から5方向の分類から, 従来の移動学習手法における成功率の増大を示した。
論文 参考訳(メタデータ) (2024-04-25T17:56:45Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - OpenMEDLab: An Open-source Platform for Multi-modality Foundation Models
in Medicine [55.29668193415034]
マルチモダリティ基盤モデルのためのオープンソースプラットフォームであるOpenMEDLabについて紹介する。
これは、最前線臨床および生体情報学応用のための大規模言語とビジョンモデルを刺激し、微調整する先駆的な試みの解決策をカプセル化する。
様々な医用画像のモダリティ、臨床テキスト、タンパク質工学など、事前訓練された基礎モデル群へのアクセスが可能である。
論文 参考訳(メタデータ) (2024-02-28T03:51:02Z) - Foundational Models in Medical Imaging: A Comprehensive Survey and
Future Vision [6.2847894163744105]
ファンデーションモデルは、広範囲の下流タスクに適応した大規模で事前訓練されたディープラーニングモデルである。
これらのモデルは、コンテキスト推論、一般化、テスト時の迅速な機能を促進する。
コンピュータビジョンの進歩に乗じて、医療画像はこれらのモデルへの関心も高まっている。
論文 参考訳(メタデータ) (2023-10-28T12:08:12Z) - On the Challenges and Perspectives of Foundation Models for Medical
Image Analysis [17.613533812925635]
医療基盤モデルは、幅広い下流タスクを解く上で大きな可能性を秘めている。
それらは、正確で堅牢なモデルの開発を加速し、大量のラベル付きデータを削減し、患者のデータのプライバシと機密性を維持するのに役立つ。
論文 参考訳(メタデータ) (2023-06-09T06:54:58Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。