論文の概要: SkinSAM: Empowering Skin Cancer Segmentation with Segment Anything Model
- arxiv url: http://arxiv.org/abs/2304.13973v1
- Date: Thu, 27 Apr 2023 06:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 14:15:34.107249
- Title: SkinSAM: Empowering Skin Cancer Segmentation with Segment Anything Model
- Title(参考訳): skinsam: segment anythingモデルによる皮膚がんのセグメント化の促進
- Authors: Mingzhe Hu, Yuheng Li, Xiaofeng Yang
- Abstract要約: SkinSAMは、セグメンテーション性能の優れたセグメンテーションモデルに基づく微調整モデルである。
モデルは10015個の皮膚内視鏡画像を含むHAM10000データセットで検証される。
- 参考スコア(独自算出の注目度): 2.752682633344525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skin cancer is a prevalent and potentially fatal disease that requires
accurate and efficient diagnosis and treatment. Although manual tracing is the
current standard in clinics, automated tools are desired to reduce human labor
and improve accuracy. However, developing such tools is challenging due to the
highly variable appearance of skin cancers and complex objects in the
background. In this paper, we present SkinSAM, a fine-tuned model based on the
Segment Anything Model that showed outstanding segmentation performance. The
models are validated on HAM10000 dataset which includes 10015 dermatoscopic
images. While larger models (ViT_L, ViT_H) performed better than the smaller
one (ViT_b), the finetuned model (ViT_b_finetuned) exhibited the greatest
improvement, with a Mean pixel accuracy of 0.945, Mean dice score of 0.8879,
and Mean IoU score of 0.7843. Among the lesion types, vascular lesions showed
the best segmentation results. Our research demonstrates the great potential of
adapting SAM to medical image segmentation tasks.
- Abstract(参考訳): 皮膚がんは重篤で致命的な疾患であり、正確かつ効率的な診断と治療を必要とする。
手動追跡は診療所の現在の標準であるが、人的労力を削減し、精度を向上させるための自動化ツールが望まれている。
しかし、こうしたツールの開発は、背景の皮膚がんや複雑な物体の出現が極めて変化するため、困難である。
本稿では,セグメンテーション性能に優れたセグメンテーション・オールモデルに基づく微調整モデルであるskinsamを提案する。
モデルは10015の皮膚鏡画像を含むham10000データセットで検証される。
大型モデル (ViT_L, ViT_H) は小型モデル (ViT_b) よりも優れた性能を示したが, 微調整モデル (ViT_b_finetuned) は平均画素精度0.945, 平均ダイススコア0.8879, 平均IoUスコア0.7843であった。
病変のタイプでは血管病変が最良なセグメンテーション結果を示した。
本研究は,SAMを医用画像分割タスクに適用する可能性を示す。
関連論文リスト
- Skin Cancer Segmentation and Classification Using Vision Transformer for
Automatic Analysis in Dermatoscopy-based Non-invasive Digital System [0.0]
本研究では,Vision Transformerを用いた皮膚癌分類における画期的なアプローチを提案する。
Vision Transformerは、多様な画像解析タスクの成功で有名な最先端のディープラーニングアーキテクチャである。
Segment Anything Modelは、癌領域の正確なセグメンテーションを支援し、高いIOUとDice Coefficientを達成する。
論文 参考訳(メタデータ) (2024-01-09T11:22:54Z) - Certification of Deep Learning Models for Medical Image Segmentation [44.177565298565966]
ランダムな平滑化と拡散モデルに基づく医用画像のための認定セグメンテーションベースラインを初めて提示する。
この結果から,拡散確率モデルをデノナイズするパワーを活用することで,ランダムな平滑化の限界を克服できることが示唆された。
論文 参考訳(メタデータ) (2023-10-05T16:40:33Z) - Using Multiple Dermoscopic Photographs of One Lesion Improves Melanoma
Classification via Deep Learning: A Prognostic Diagnostic Accuracy Study [0.0]
本研究はCNNをベースとしたメラノーマ分類器に対する単一病変の複数の実世界の皮膚内視鏡像の影響について検討した。
複数の実世界の画像を使用することは、CNNベースのメラノーマ分類器の性能に肯定的な影響を及ぼすための安価な方法である。
論文 参考訳(メタデータ) (2023-06-05T11:55:57Z) - Multivariate Analysis on Performance Gaps of Artificial Intelligence
Models in Screening Mammography [4.123006816939975]
異常分類のための深層学習モデルは,マンモグラフィーのスクリーニングにおいて良好に機能する。
モデル不全のリスクの増加に伴う人口統計学的、画像的、臨床的特徴はいまだに不明である。
年齢,人種,病理所見,組織密度,画像特徴によって定義されるサブグループによるモデル性能の評価を行った。
論文 参考訳(メタデータ) (2023-05-08T02:28:45Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Automatic Segmentation of Head and Neck Tumor: How Powerful Transformers
Are? [0.0]
我々は,H&N腫瘍を自動デライン化するための視覚変換器を用いた手法を開発した。
我々は、その結果をCNNベースのモデルと比較する。
選択した変換器ベースモデルにより,CNNベースモデルと同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-01-17T07:31:52Z) - On the explainability of hospitalization prediction on a large COVID-19
patient dataset [45.82374977939355]
我々は、新型コロナウイルス陽性の米国の患者の大規模な(110ドル以上)コホートでの入院を予測するために、さまざまなAIモデルを開発した。
高いデータアンバランスにもかかわらず、モデルは平均精度0.96-0.98 (0.75-0.85)、リコール0.96-0.98 (0.74-0.85)、F_score097-0.98 (0.79-0.83)に達する。
論文 参考訳(メタデータ) (2021-10-28T10:23:38Z) - DenseNet approach to segmentation and classification of dermatoscopic
skin lesions images [0.0]
本稿では,2つのアーキテクチャを用いた皮膚病変の分類と分類の改善手法を提案する。
U-NetとDenseNet121の組み合わせは、皮膚内視鏡画像解析において許容できる結果を提供する。
DenseNet121ネットワークでは、それぞれ79.49%と93.11%の精度で癌と非癌サンプルが検出された。
論文 参考訳(メタデータ) (2021-10-09T19:12:23Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。