論文の概要: Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images
- arxiv url: http://arxiv.org/abs/2104.02652v1
- Date: Fri, 2 Apr 2021 20:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:20:24.594058
- Title: Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images
- Title(参考訳): 臨床皮膚画像からの悪性度予測と病変同定
- Authors: Meng Xia, Meenal K. Kheterpal, Samantha C. Wong, Christine Park,
William Ratliff, Lawrence Carin, Ricardo Henao
- Abstract要約: 臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
- 参考スコア(独自算出の注目度): 65.1629311281062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider machine-learning-based malignancy prediction and lesion
identification from clinical dermatological images, which can be indistinctly
acquired via smartphone or dermoscopy capture. Additionally, we do not assume
that images contain single lesions, thus the framework supports both focal or
wide-field images. Specifically, we propose a two-stage approach in which we
first identify all lesions present in the image regardless of sub-type or
likelihood of malignancy, then it estimates their likelihood of malignancy, and
through aggregation, it also generates an image-level likelihood of malignancy
that can be used for high-level screening processes. Further, we consider
augmenting the proposed approach with clinical covariates (from electronic
health records) and publicly available data (the ISIC dataset). Comprehensive
experiments validated on an independent test dataset demonstrate that i) the
proposed approach outperforms alternative model architectures; ii) the model
based on images outperforms a pure clinical model by a large margin, and the
combination of images and clinical data does not significantly improves over
the image-only model; and iii) the proposed framework offers comparable
performance in terms of malignancy classification relative to three board
certified dermatologists with different levels of experience.
- Abstract(参考訳): 臨床皮膚画像からの機械学習に基づく悪性腫瘍の予測と病変の同定について検討した。
さらに,画像は単一の病変を含むとは仮定せず,焦点画像と広視野画像の両方をサポートする。
具体的には, 画像中のすべての病変を, サブタイプや悪性度にかかわらず識別し, それらの悪性度を推定し, 凝集することにより, 高レベルのスクリーニングに使用できる画像レベルの悪性度の可能性も生み出す2段階アプローチを提案する。
さらに,提案手法を,臨床共変量(電子健康記録)と公開データ(isicデータセット)で強化することを検討する。
Comprehensive experiments validated on an independent test dataset demonstrate that i) the proposed approach outperforms alternative model architectures; ii) the model based on images outperforms a pure clinical model by a large margin, and the combination of images and clinical data does not significantly improves over the image-only model; and iii) the proposed framework offers comparable performance in terms of malignancy classification relative to three board certified dermatologists with different levels of experience.
関連論文リスト
- A Multimodal Approach For Endoscopic VCE Image Classification Using BiomedCLIP-PubMedBERT [0.62914438169038]
本稿では,マルチモーダルモデルであるBiomedCLIP PubMedBERTの微細調整によるビデオカプセル内視鏡フレームの異常の分類について述べる。
本手法では, 血管拡張症, 出血, エロージョン, エリテマ, 異物, リンパ管拡張症, ポリープ, 潰瘍, ワーム, 正常の10種類の画像に分類する。
分類、精度、リコール、F1スコアなどのパフォーマンス指標は、内視鏡フレームの異常を正確に識別する強力な能力を示している。
論文 参考訳(メタデータ) (2024-10-25T19:42:57Z) - Enhancing Multimodal Medical Image Classification using Cross-Graph Modal Contrastive Learning [5.660131312162423]
本稿では,マルチモーダルな医用画像分類のためのクロスグラフ・モーダルコントラスト学習フレームワークを提案する。
提案手法は、パーキンソン病(PD)データセットと公共メラノーマデータセットの2つのデータセットで評価される。
以上の結果から,CGMCLは従来手法よりも精度,解釈可能性,早期疾患予測に優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-23T01:25:25Z) - VALD-MD: Visual Attribution via Latent Diffusion for Medical Diagnostics [0.0]
医用画像における視覚的属性は、医用画像の診断関連成分を明確にすることを目指している。
本稿では、潜在拡散モデルとドメイン固有大言語モデルを組み合わせた新しい生成的視覚属性手法を提案する。
結果として生じるシステムは、ゼロショット局所化疾患誘導を含む様々な潜在能力を示す。
論文 参考訳(メタデータ) (2024-01-02T19:51:49Z) - Revamping AI Models in Dermatology: Overcoming Critical Challenges for
Enhanced Skin Lesion Diagnosis [8.430482797862926]
我々は、分散-textbfClinical TriageモデルのオールインワンのtextbfHierarchical-textbfOutを示す。
臨床画像では,階層的予測,アウト・オブ・ディストリビューション画像の警告,皮膚内視鏡の推奨の3つの出力を生成する。
我々の汎用モデルは、病変診断のための貴重な意思決定支援を提供し、医療AI応用の有望な先例を定めている。
論文 参考訳(メタデータ) (2023-11-02T06:08:49Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Deep Cervix Model Development from Heterogeneous and Partially Labeled
Image Datasets [0.0]
子宮頸癌は世界で4番目に多いがんである。
基準特異的予測モデル開発におけるラベル付け基準に影響を与える頚部検査の目的は様々である。
これらの課題に乗じて、未ラベルの頚部画像から事前学習した頸部頸部頸部のモデルを作成するために、自己教師付き学習(SSL)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-18T14:24:50Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。