論文の概要: SkinGPT-R1: Adapter-Only Dual Distillation for Efficient Dermatology Reasoning
- arxiv url: http://arxiv.org/abs/2511.15242v1
- Date: Wed, 19 Nov 2025 08:55:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.708361
- Title: SkinGPT-R1: Adapter-Only Dual Distillation for Efficient Dermatology Reasoning
- Title(参考訳): SkinGPT-R1:Adapter-Only Dual Distillation for Efficient Dermatology Reasoning
- Authors: Yuhao Shen, Jiahe Qian, Zhangtianyi Chen, Yuanhao He, Juexiao Zhou,
- Abstract要約: 皮膚科に焦点を当てた視覚言語モデルであるSkinGPT-R1を提案する。
我々はDermCoTを開発した。DermCoTは1万件のDermEvalフィルターによるトレーニングケースと3000件の皮膚科医による認定ケースを組み合わせた、標準化された皮膚科の思考物語のコーパスだ。
ダームベンチでは、14の一般、推論、医療ビジョン言語モデルにまたがって、SkinGPT-R1は6つの臨床で定義された次元に対して5のうち平均4.031のスコアを達成している。
- 参考スコア(独自算出の注目度): 1.8915991965323897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SkinGPT-R1, a dermatology focused vision language model that makes diagnostic chain of thought reasoning explicit, step by step, and verifiable. To support skin specific reasoning, we build DermCoT, a corpus of standardized dermatologic chain of thought narratives that combines 10,000 DermEval filtered training cases with 3,000 dermatologist scored certified cases, and we define DermEval as a physician aligned six dimensional evaluator and DermBench as the corresponding benchmark for dermatologic chain of thought quality. On DermBench, across 14 general, reasoning, and medical vision language models, SkinGPT-R1 achieves an average score of 4.031 out of 5 over the six clinician defined dimensions, ranks 1st among all systems, and improves the average score over Vision-R1 by about 41%. On three dermatology classification benchmarks, SkinGPT-R1 delivers stable accuracy gains over Vision-R1 and remains competitive among strong vision language models. Ablation results further show that DermCoT based chain of thought supervision provides substantial improvements over the base model and that adding dermatology aware visual distillation yields consistent additional gains in both narrative quality and recognition.
- Abstract(参考訳): 皮膚科に焦点を当てた視覚言語モデルであるSkinGPT-R1を提案する。
皮膚特異的推論を支援するため,DermCoTは1万件のDermEvalフィルターによるトレーニング事例と3000件の皮膚科医の認定症例を組み合わせ,DermCoTは6次元評価器を,DermBenchは6次元評価器を,DermBenchはそれに対応する思考品質評価器として定義する。
ダームベンチでは、14の一般、推論、医療ビジョン言語モデルにまたがって、SkinGPT-R1は6つの臨床領域で5の内平均スコア4.031を達成し、全システムで1位、Vision-R1の平均スコアは約41%向上している。
3つの皮膚科分類ベンチマークでは、SkinGPT-R1はVision-R1よりも安定した精度向上を実現し、強力な視覚言語モデルの間で競争力を維持している。
さらに,DermCoTをベースとした思考指導の連鎖は,基礎モデルよりも大幅に改善し,皮膚科を意識した視覚蒸留が,物語の質と認識の両面で一貫した付加的な利益をもたらすことを示した。
関連論文リスト
- TemMed-Bench: Evaluating Temporal Medical Image Reasoning in Vision-Language Models [54.48710348910535]
既存の医学推論ベンチマークは、主に1回の訪問からの画像に基づいて患者の状態を分析することに焦点を当てている。
臨床訪問における患者の状態の変化を分析するための最初のベンチマークであるTemMed-Benchを紹介する。
論文 参考訳(メタデータ) (2025-09-29T17:51:26Z) - Adapting Large Language Models to Mitigate Skin Tone Biases in Clinical Dermatology Tasks: A Mixed-Methods Study [2.3034630097498883]
皮膚疾患に対するSkinGPT-4(SkinGPT-4)の性能バイアスについて検討した。
我々は、SkinGPT-4のバックボーンを利用して、カスタム皮膚疾患分類タスクのための微調整モデルを開発した。
論文 参考訳(メタデータ) (2025-09-28T09:40:40Z) - DermINO: Hybrid Pretraining for a Versatile Dermatology Foundation Model [92.66916452260553]
DermNIOは皮膚科学の多目的基盤モデルである。
自己教師型学習パラダイムを増強する、新しいハイブリッド事前学習フレームワークが組み込まれている。
さまざまなタスクにおいて、最先端のモデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-17T00:41:39Z) - BEnchmarking LLMs for Ophthalmology (BELO) for Ophthalmological Knowledge and Reasoning [4.765373980518581]
BELOは、眼科関連の臨床的精度と推論品質の評価ベンチマークである。
5つのソースから集計された900の高品質で専門家レビューされた質問で構成されている。
透明な評価と報告を促進するために、公共のリーダーボードが設けられている。
論文 参考訳(メタデータ) (2025-07-21T15:27:32Z) - DermaCon-IN: A Multi-concept Annotated Dermatological Image Dataset of Indian Skin Disorders for Clinical AI Research [3.3114401663331137]
DermaCon-INは、南インドで約3000人の患者から5450件以上の臨床画像が収集されたデータセットである。
それぞれの画像は、240以上の異なる診断がなされ、階層的、エチオロジーに基づく分類の下に構築された、ボード認証された皮膚科医によって注釈付けされる。
このデータセットは、インドにおける外来医療でよく見られる皮膚学的な状況と声調の変化を、幅広い範囲で捉えている。
論文 参考訳(メタデータ) (2025-06-06T13:59:08Z) - Derm1M: A Million-scale Vision-Language Dataset Aligned with Clinical Ontology Knowledge for Dermatology [20.650401805716744]
本稿では,1029,761個の画像テキストペアからなる皮膚科における最初の大規模視覚言語データセットであるDerm1Mを提案する。
AI研究と臨床応用の進展におけるDerm1Mの可能性を示すために、我々はこのデータセット上で一連のCLIPライクなモデル(DermLIP)を事前訓練した。
論文 参考訳(メタデータ) (2025-03-19T05:30:01Z) - Quantifying the Reasoning Abilities of LLMs on Real-world Clinical Cases [48.87360916431396]
MedR-Benchは1,453例の構造化患者のベンチマークデータセットで、推論基準を付した注釈付きである。
本稿では,3つの批判的診察勧告,診断決定,治療計画を含む枠組みを提案し,患者のケアジャーニー全体をシミュレートする。
このベンチマークを用いて、DeepSeek-R1、OpenAI-o3-mini、Gemini-2.0-Flash Thinkingなど、最先端の5つのLCMを評価した。
論文 参考訳(メタデータ) (2025-03-06T18:35:39Z) - SkinGEN: an Explainable Dermatology Diagnosis-to-Generation Framework with Interactive Vision-Language Models [54.32264601568605]
SkinGENは、VLMが提供する診断結果から参照デモを生成する、診断から生成までのフレームワークである。
システム性能と説明可能性の両方を評価するために,32人の参加者によるユーザスタディを実施している。
その結果、SkinGENはVLM予測に対するユーザの理解を著しく改善し、診断プロセスへの信頼を高めることが示されている。
論文 参考訳(メタデータ) (2024-04-23T05:36:33Z) - MyoPS: A Benchmark of Myocardial Pathology Segmentation Combining
Three-Sequence Cardiac Magnetic Resonance Images [84.02849948202116]
本研究は,MyoPS(MyoPS)の医療画像解析における新たな課題を定義するものである。
myoPSは、MICCAI 2020とともにMyoPSチャレンジで最初に提案された3シーケンスの心臓磁気共鳴(CMR)画像を組み合わせている。
この課題は45対のCMR画像と予め整列されたCMR画像を提供し、アルゴリズムは3つのCMRシーケンスから補完的な情報を結合して病理領域を分割することを可能にする。
論文 参考訳(メタデータ) (2022-01-10T06:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。