論文の概要: DermINO: Hybrid Pretraining for a Versatile Dermatology Foundation Model
- arxiv url: http://arxiv.org/abs/2508.12190v1
- Date: Sun, 17 Aug 2025 00:41:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.610123
- Title: DermINO: Hybrid Pretraining for a Versatile Dermatology Foundation Model
- Title(参考訳): Dermino:Versatile Dermatology Foundation Modelのためのハイブリッドプレトレーニング
- Authors: Jingkai Xu, De Cheng, Xiangqian Zhao, Jungang Yang, Zilong Wang, Xinyang Jiang, Xufang Luo, Lili Chen, Xiaoli Ning, Chengxu Li, Xinzhu Zhou, Xuejiao Song, Ang Li, Qingyue Xia, Zhou Zhuang, Hongfei Ouyang, Ke Xue, Yujun Sheng, Rusong Meng, Feng Xu, Xi Yang, Weimin Ma, Yusheng Lee, Dongsheng Li, Xinbo Gao, Jianming Liang, Lili Qiu, Nannan Wang, Xianbo Zuo, Cui Yong,
- Abstract要約: DermNIOは皮膚科学の多目的基盤モデルである。
自己教師型学習パラダイムを増強する、新しいハイブリッド事前学習フレームワークが組み込まれている。
さまざまなタスクにおいて、最先端のモデルよりも一貫して優れています。
- 参考スコア(独自算出の注目度): 69.20140430678092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skin diseases impose a substantial burden on global healthcare systems, driven by their high prevalence (affecting up to 70% of the population), complex diagnostic processes, and a critical shortage of dermatologists in resource-limited areas. While artificial intelligence(AI) tools have demonstrated promise in dermatological image analysis, current models face limitations-they often rely on large, manually labeled datasets and are built for narrow, specific tasks, making them less effective in real-world settings. To tackle these limitations, we present DermNIO, a versatile foundation model for dermatology. Trained on a curated dataset of 432,776 images from three sources (public repositories, web-sourced images, and proprietary collections), DermNIO incorporates a novel hybrid pretraining framework that augments the self-supervised learning paradigm through semi-supervised learning and knowledge-guided prototype initialization. This integrated method not only deepens the understanding of complex dermatological conditions, but also substantially enhances the generalization capability across various clinical tasks. Evaluated across 20 datasets, DermNIO consistently outperforms state-of-the-art models across a wide range of tasks. It excels in high-level clinical applications including malignancy classification, disease severity grading, multi-category diagnosis, and dermatological image caption, while also achieving state-of-the-art performance in low-level tasks such as skin lesion segmentation. Furthermore, DermNIO demonstrates strong robustness in privacy-preserving federated learning scenarios and across diverse skin types and sexes. In a blinded reader study with 23 dermatologists, DermNIO achieved 95.79% diagnostic accuracy (versus clinicians' 73.66%), and AI assistance improved clinician performance by 17.21%.
- Abstract(参考訳): 皮膚疾患は、高頻度(人口の70%に影響を及ぼす)、複雑な診断プロセス、資源制限地域における皮膚科医の不足など、世界的な医療システムにかなりの負担を課している。
人工知能(AI)ツールは皮膚画像解析において有望であることを示す一方で、現在のモデルは制限に直面している。
これらの制約に対処するため,皮膚科学の多目的基盤モデルであるDermNIOを提案する。
DermNIOは3つのソース(パブリックリポジトリ、Webソースイメージ、プロプライエタリコレクション)から432,776イメージのキュレートされたデータセットに基づいてトレーニングされている。
この統合法は、複雑な皮膚疾患の理解を深めるだけでなく、様々な臨床課題における一般化能力を大幅に向上させる。
20のデータセットで評価されたDermNIOは、さまざまなタスクにわたる最先端モデルよりも一貫して優れています。
悪性度分類、疾患の重症度分類、多カテゴリ診断、皮膚画像キャプションなどの高レベルの臨床応用に優れ、皮膚病変のセグメンテーションのような低レベルのタスクで最先端のパフォーマンスを達成する。
さらに、DermNIOは、プライバシ保護のフェデレーション学習シナリオと、さまざまなスキンタイプやセックスの強い堅牢性を示している。
23人の皮膚科医による盲目の読者による研究で、DermNIOは95.79%の診断精度(臨床医の73.66%)を達成し、AI支援により臨床医のパフォーマンスは17.21%向上した。
関連論文リスト
- DermaCon-IN: A Multi-concept Annotated Dermatological Image Dataset of Indian Skin Disorders for Clinical AI Research [3.3114401663331137]
DermaCon-INは、南インドで約3000人の患者から5450件以上の臨床画像が収集されたデータセットである。
それぞれの画像は、240以上の異なる診断がなされ、階層的、エチオロジーに基づく分類の下に構築された、ボード認証された皮膚科医によって注釈付けされる。
このデータセットは、インドにおける外来医療でよく見られる皮膚学的な状況と声調の変化を、幅広い範囲で捉えている。
論文 参考訳(メタデータ) (2025-06-06T13:59:08Z) - MAKE: Multi-Aspect Knowledge-Enhanced Vision-Language Pretraining for Zero-shot Dermatological Assessment [12.665019147690975]
MAKEはゼロショット皮膚科学タスクのための視覚言語事前学習フレームワークである。
臨床物語を知識に富んだサブテキストに分解する。
臨床上の意義に基づいて、異なるサブカプセルを優先順位付けする。
論文 参考訳(メタデータ) (2025-05-14T13:24:08Z) - Derm1M: A Million-scale Vision-Language Dataset Aligned with Clinical Ontology Knowledge for Dermatology [20.650401805716744]
本稿では,1029,761個の画像テキストペアからなる皮膚科における最初の大規模視覚言語データセットであるDerm1Mを提案する。
AI研究と臨床応用の進展におけるDerm1Mの可能性を示すために、我々はこのデータセット上で一連のCLIPライクなモデル(DermLIP)を事前訓練した。
論文 参考訳(メタデータ) (2025-03-19T05:30:01Z) - A Multimodal Vision Foundation Model for Clinical Dermatology [14.481765406970657]
PanDermは、200万以上の現実世界の皮膚疾患の画像に対する自己教師付き学習を通じて事前訓練されたマルチモーダル皮膚科学の基礎モデルである。
PanDermは、評価されたすべてのタスクで最先端のパフォーマンスを達成し、ラベル付きデータの10%しか使用していない場合、しばしば既存のモデルを上回った。
論文 参考訳(メタデータ) (2024-10-19T08:48:01Z) - SkinGEN: an Explainable Dermatology Diagnosis-to-Generation Framework with Interactive Vision-Language Models [54.32264601568605]
SkinGENは、VLMが提供する診断結果から参照デモを生成する、診断から生成までのフレームワークである。
システム性能と説明可能性の両方を評価するために,32人の参加者によるユーザスタディを実施している。
その結果、SkinGENはVLM予測に対するユーザの理解を著しく改善し、診断プロセスへの信頼を高めることが示されている。
論文 参考訳(メタデータ) (2024-04-23T05:36:33Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。