論文の概要: SkinSAM: Empowering Skin Cancer Segmentation with Segment Anything Model
- arxiv url: http://arxiv.org/abs/2304.13973v1
- Date: Thu, 27 Apr 2023 06:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 14:15:34.107249
- Title: SkinSAM: Empowering Skin Cancer Segmentation with Segment Anything Model
- Title(参考訳): skinsam: segment anythingモデルによる皮膚がんのセグメント化の促進
- Authors: Mingzhe Hu, Yuheng Li, Xiaofeng Yang
- Abstract要約: SkinSAMは、セグメンテーション性能の優れたセグメンテーションモデルに基づく微調整モデルである。
モデルは10015個の皮膚内視鏡画像を含むHAM10000データセットで検証される。
- 参考スコア(独自算出の注目度): 2.752682633344525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skin cancer is a prevalent and potentially fatal disease that requires
accurate and efficient diagnosis and treatment. Although manual tracing is the
current standard in clinics, automated tools are desired to reduce human labor
and improve accuracy. However, developing such tools is challenging due to the
highly variable appearance of skin cancers and complex objects in the
background. In this paper, we present SkinSAM, a fine-tuned model based on the
Segment Anything Model that showed outstanding segmentation performance. The
models are validated on HAM10000 dataset which includes 10015 dermatoscopic
images. While larger models (ViT_L, ViT_H) performed better than the smaller
one (ViT_b), the finetuned model (ViT_b_finetuned) exhibited the greatest
improvement, with a Mean pixel accuracy of 0.945, Mean dice score of 0.8879,
and Mean IoU score of 0.7843. Among the lesion types, vascular lesions showed
the best segmentation results. Our research demonstrates the great potential of
adapting SAM to medical image segmentation tasks.
- Abstract(参考訳): 皮膚がんは重篤で致命的な疾患であり、正確かつ効率的な診断と治療を必要とする。
手動追跡は診療所の現在の標準であるが、人的労力を削減し、精度を向上させるための自動化ツールが望まれている。
しかし、こうしたツールの開発は、背景の皮膚がんや複雑な物体の出現が極めて変化するため、困難である。
本稿では,セグメンテーション性能に優れたセグメンテーション・オールモデルに基づく微調整モデルであるskinsamを提案する。
モデルは10015の皮膚鏡画像を含むham10000データセットで検証される。
大型モデル (ViT_L, ViT_H) は小型モデル (ViT_b) よりも優れた性能を示したが, 微調整モデル (ViT_b_finetuned) は平均画素精度0.945, 平均ダイススコア0.8879, 平均IoUスコア0.7843であった。
病変のタイプでは血管病変が最良なセグメンテーション結果を示した。
本研究は,SAMを医用画像分割タスクに適用する可能性を示す。
関連論文リスト
- Enhancing Skin Lesion Diagnosis with Ensemble Learning [15.569484546674776]
本研究では,HAM10000データセットを用いて皮膚病変の診断を支援する深層学習手法の実装について検討した。
分類精度をさらに高めるために,最大投票,平均投票,積み重ねを用いたアンサンブルモデルを開発し,0.803,0.82,0.83の精度を得た。
最適性能のアンサンブル学習モデルであるスタックリングに基づいて,カスタマイズアーキテクチャと微調整を取り入れたモデルであるSkinNetを開発し,0.867の精度と0.96のAUCを実現した。
論文 参考訳(メタデータ) (2024-09-06T16:19:01Z) - SAM-UNet:Enhancing Zero-Shot Segmentation of SAM for Universal Medical Images [40.4422523499489]
Segment Anything Model (SAM) は、様々な自然画像のセグメンテーションタスクにおいて印象的な性能を示した。
本稿では,U-Netを元のSAMに組み込んだ新たな基盤モデルSAMUNetを提案する。
我々は,SA-Med2D-16MでSAM-UNetをトレーニングした。
論文 参考訳(メタデータ) (2024-08-19T11:01:00Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.586530244472655]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Skin Cancer Segmentation and Classification Using Vision Transformer for
Automatic Analysis in Dermatoscopy-based Non-invasive Digital System [0.0]
本研究では,Vision Transformerを用いた皮膚癌分類における画期的なアプローチを提案する。
Vision Transformerは、多様な画像解析タスクの成功で有名な最先端のディープラーニングアーキテクチャである。
Segment Anything Modelは、癌領域の正確なセグメンテーションを支援し、高いIOUとDice Coefficientを達成する。
論文 参考訳(メタデータ) (2024-01-09T11:22:54Z) - Certification of Deep Learning Models for Medical Image Segmentation [44.177565298565966]
ランダムな平滑化と拡散モデルに基づく医用画像のための認定セグメンテーションベースラインを初めて提示する。
この結果から,拡散確率モデルをデノナイズするパワーを活用することで,ランダムな平滑化の限界を克服できることが示唆された。
論文 参考訳(メタデータ) (2023-10-05T16:40:33Z) - Multivariate Analysis on Performance Gaps of Artificial Intelligence
Models in Screening Mammography [4.123006816939975]
異常分類のための深層学習モデルは,マンモグラフィーのスクリーニングにおいて良好に機能する。
モデル不全のリスクの増加に伴う人口統計学的、画像的、臨床的特徴はいまだに不明である。
年齢,人種,病理所見,組織密度,画像特徴によって定義されるサブグループによるモデル性能の評価を行った。
論文 参考訳(メタデータ) (2023-05-08T02:28:45Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Automatic Segmentation of Head and Neck Tumor: How Powerful Transformers
Are? [0.0]
我々は,H&N腫瘍を自動デライン化するための視覚変換器を用いた手法を開発した。
我々は、その結果をCNNベースのモデルと比較する。
選択した変換器ベースモデルにより,CNNベースモデルと同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-01-17T07:31:52Z) - DenseNet approach to segmentation and classification of dermatoscopic
skin lesions images [0.0]
本稿では,2つのアーキテクチャを用いた皮膚病変の分類と分類の改善手法を提案する。
U-NetとDenseNet121の組み合わせは、皮膚内視鏡画像解析において許容できる結果を提供する。
DenseNet121ネットワークでは、それぞれ79.49%と93.11%の精度で癌と非癌サンプルが検出された。
論文 参考訳(メタデータ) (2021-10-09T19:12:23Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。