論文の概要: DermaBench: A Clinician-Annotated Benchmark Dataset for Dermatology Visual Question Answering and Reasoning
- arxiv url: http://arxiv.org/abs/2601.14084v1
- Date: Tue, 20 Jan 2026 15:44:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.391367
- Title: DermaBench: A Clinician-Annotated Benchmark Dataset for Dermatology Visual Question Answering and Reasoning
- Title(参考訳): DermaBench: 皮膚科の視覚的質問応答と推論のための臨床アノテーション付きベンチマークデータセット
- Authors: Abdurrahim Yilmaz, Ozan Erdem, Ece Gokyayla, Ayda Acar, Burc Bugra Dagtas, Dilara Ilhan Erdil, Gulsum Gencoglan, Burak Temelkuran,
- Abstract要約: DermaBenchは,Diverse Dermatology Imagesデータセット上に構築された臨床用アノテート皮膚科VQAベンチマークである。
DermaBenchは、フィッツパトリックの皮膚型I-VIにまたがる570人のユニークな患者の656の臨床像を含む。
DermaBenchは、上流ライセンスを尊重するメタデータのみのデータセットとしてリリースされ、Harvard Dataverseで公開されている。
- 参考スコア(独自算出の注目度): 0.28909295536379814
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vision-language models (VLMs) are increasingly important in medical applications; however, their evaluation in dermatology remains limited by datasets that focus primarily on image-level classification tasks such as lesion recognition. While valuable for recognition, such datasets cannot assess the full visual understanding, language grounding, and clinical reasoning capabilities of multimodal models. Visual question answering (VQA) benchmarks are required to evaluate how models interpret dermatological images, reason over fine-grained morphology, and generate clinically meaningful descriptions. We introduce DermaBench, a clinician-annotated dermatology VQA benchmark built on the Diverse Dermatology Images (DDI) dataset. DermaBench comprises 656 clinical images from 570 unique patients spanning Fitzpatrick skin types I-VI. Using a hierarchical annotation schema with 22 main questions (single-choice, multi-choice, and open-ended), expert dermatologists annotated each image for diagnosis, anatomic site, lesion morphology, distribution, surface features, color, and image quality, together with open-ended narrative descriptions and summaries, yielding approximately 14.474 VQA-style annotations. DermaBench is released as a metadata-only dataset to respect upstream licensing and is publicly available at Harvard Dataverse.
- Abstract(参考訳): 視覚言語モデル(VLM)は、医学的応用においてますます重要になっているが、皮膚科学におけるその評価は、主に病変認識などの画像レベルの分類タスクに焦点を当てたデータセットによって制限されている。
認識には価値があるが、そのようなデータセットは、マルチモーダルモデルの完全な視覚的理解、言語基盤、臨床推論能力を評価することはできない。
視覚的質問応答(VQA)ベンチマークは、モデルが皮膚画像をどのように解釈し、きめ細かな形態を判断し、臨床的に意味のある記述を生成するかを評価するために必要である。
DDI(Diverse Dermatology Images)データセット上に構築された臨床アノテーション付き皮膚科VQAベンチマークであるDermaBenchを紹介する。
DermaBenchは、フィッツパトリックの皮膚型I-VIにまたがる570人のユニークな患者の656の臨床像を含む。
22の主要な質問(単一選択、複数選択、オープンエンド)からなる階層的アノテーションスキーマを使用して、専門家の皮膚科医は、診断、解剖学的部位、病変形態、分布、表面の特徴、色、画像品質に関する各画像に注釈を付け、開放的な物語の記述や要約とともに、約14.474 VQAスタイルのアノテーションを出力した。
DermaBenchは、上流ライセンスを尊重するメタデータのみのデータセットとしてリリースされ、Harvard Dataverseで公開されている。
関連論文リスト
- TemMed-Bench: Evaluating Temporal Medical Image Reasoning in Vision-Language Models [54.48710348910535]
既存の医学推論ベンチマークは、主に1回の訪問からの画像に基づいて患者の状態を分析することに焦点を当てている。
臨床訪問における患者の状態の変化を分析するための最初のベンチマークであるTemMed-Benchを紹介する。
論文 参考訳(メタデータ) (2025-09-29T17:51:26Z) - DermINO: Hybrid Pretraining for a Versatile Dermatology Foundation Model [92.66916452260553]
DermNIOは皮膚科学の多目的基盤モデルである。
自己教師型学習パラダイムを増強する、新しいハイブリッド事前学習フレームワークが組み込まれている。
さまざまなタスクにおいて、最先端のモデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-17T00:41:39Z) - DermaCon-IN: A Multi-concept Annotated Dermatological Image Dataset of Indian Skin Disorders for Clinical AI Research [3.3114401663331137]
DermaCon-INは、南インドで約3000人の患者から5450件以上の臨床画像が収集されたデータセットである。
それぞれの画像は、240以上の異なる診断がなされ、階層的、エチオロジーに基づく分類の下に構築された、ボード認証された皮膚科医によって注釈付けされる。
このデータセットは、インドにおける外来医療でよく見られる皮膚学的な状況と声調の変化を、幅広い範囲で捉えている。
論文 参考訳(メタデータ) (2025-06-06T13:59:08Z) - MM-Skin: Enhancing Dermatology Vision-Language Model with an Image-Text Dataset Derived from Textbooks [15.746023359967005]
医療ビジョン言語モデル(VLM)は、様々な医療分野における臨床助手として期待されている。
SkinVLは皮膚疾患の正確な解釈のために設計された皮膚科固有のVLMである。
MM-Skinは、最初の大規模マルチモーダル皮膚科学データセットである。
論文 参考訳(メタデータ) (2025-05-09T16:03:47Z) - Derm1M: A Million-scale Vision-Language Dataset Aligned with Clinical Ontology Knowledge for Dermatology [20.650401805716744]
本稿では,1029,761個の画像テキストペアからなる皮膚科における最初の大規模視覚言語データセットであるDerm1Mを提案する。
AI研究と臨床応用の進展におけるDerm1Mの可能性を示すために、我々はこのデータセット上で一連のCLIPライクなモデル(DermLIP)を事前訓練した。
論文 参考訳(メタデータ) (2025-03-19T05:30:01Z) - SkinCaRe: A Multimodal Dermatology Dataset Annotated with Medical Caption and Chain-of-Thought Reasoning [20.883012595896243]
textbfSkinCaReは、包括的な自然言語記述を備えた包括的なデータセットである。
textbfSkinCAPは、Fitzpatrick 17k皮膚疾患データセットとDiverse Dermatology Imagesデータセットからソースされた4,000のイメージで構成されている。
textbfSkinCoTは、3,041の皮膚科画像と臨床者が検証し、階層的な診断の連鎖を組み合わせた、キュレートされたデータセットである。
論文 参考訳(メタデータ) (2024-05-28T09:48:23Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - PMC-VQA: Visual Instruction Tuning for Medical Visual Question Answering [56.25766322554655]
MedVQA(Medicical Visual Question Answering)は、診断精度と医療提供を向上する重要な機会を提供する。
本稿では,事前学習した視覚エンコーダの視覚情報を大規模言語モデルに整列させることにより,医用視覚理解のための生成モデルを提案する。
PMC-VQAで提案されたモデルをトレーニングし、VQA-RAD、SLAKE、Image-Clef 2019など、複数の公開ベンチマークで微調整する。
論文 参考訳(メタデータ) (2023-05-17T17:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。