論文の概要: Ugly Ducklings or Swans: A Tiered Quadruplet Network with
Patient-Specific Mining for Improved Skin Lesion Classification
- arxiv url: http://arxiv.org/abs/2309.09689v1
- Date: Mon, 18 Sep 2023 11:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:51:45.229463
- Title: Ugly Ducklings or Swans: A Tiered Quadruplet Network with
Patient-Specific Mining for Improved Skin Lesion Classification
- Title(参考訳): Ugly Ducklings or Swans: 皮膚病変分類の改善を目的とした患者特異的マイニングによるタイラードクアドルレットネットワーク
- Authors: Nathasha Naranpanawa, H. Peter Soyer, Adam Mothershaw, Gayan K.
Kulatilleke, Zongyuan Ge, Brigid Betz-Stablein, Shekhar S. Chandra
- Abstract要約: 陰影は皮膚黒色腫の診断に使用される基準である。
DMT-Quadrupletは、患者レベルと病変レベルという2段階の病変の特徴を学習する深層学習ネットワークである。
患者固有の四重極線マイニング手法とタイトされた四重極線ネットワークを導入し、ネットワークを駆動してよりコンテキスト情報を学ぶ。
- 参考スコア(独自算出の注目度): 9.245138251956652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An ugly duckling is an obviously different skin lesion from surrounding
lesions of an individual, and the ugly duckling sign is a criterion used to aid
in the diagnosis of cutaneous melanoma by differentiating between highly
suspicious and benign lesions. However, the appearance of pigmented lesions,
can change drastically from one patient to another, resulting in difficulties
in visual separation of ugly ducklings. Hence, we propose DMT-Quadruplet - a
deep metric learning network to learn lesion features at two tiers -
patient-level and lesion-level. We introduce a patient-specific quadruplet
mining approach together with a tiered quadruplet network, to drive the network
to learn more contextual information both globally and locally between the two
tiers. We further incorporate a dynamic margin within the patient-specific
mining to allow more useful quadruplets to be mined within individuals.
Comprehensive experiments show that our proposed method outperforms traditional
classifiers, achieving 54% higher sensitivity than a baseline ResNet18 CNN and
37% higher than a naive triplet network in classifying ugly duckling lesions.
Visualisation of the data manifold in the metric space further illustrates that
DMT-Quadruplet is capable of classifying ugly duckling lesions in both
patient-specific and patient-agnostic manner successfully.
- Abstract(参考訳): アヒルは個人の周囲の病変と明らかに異なる皮膚病変であり、アヒルのサインは、非常に疑わしい病変と良性病変を区別することによって皮膚黒色腫の診断を助けるために用いられる基準である。
しかし、色素性病変の出現は、ある患者から別の患者へと大きく変化し、アヒルの視覚的な分離が困難になる。
そこで我々はDMT-Quadruplet(DMT-Quadruplet)を提案する。
そこで我々は,階層化4重層ネットワークと共に,患者固有の4重層マイニング手法を導入することで,ネットワークをグローバルとローカルの両方で,より詳細な文脈情報を学習させる。
さらに患者固有の鉱業にダイナミックマージンを組み込んで、個人内でより有用な四重項を採掘できるようにする。
網羅的な実験により,提案手法は従来の分類器よりも優れており,ベースラインのResNet18 CNNよりも54%,ナイーブ三重項ネットワークより37%高い感度を示した。
計量空間におけるデータ多様体の可視化は、DMT-Quadrupletが患者の特異性および患者非依存性の両方でひどいアヒルの病変を分類できることを示している。
関連論文リスト
- FairSkin: Fair Diffusion for Skin Disease Image Generation [54.29840149709033]
拡散モデル (DM) は, 合成医用画像の生成において主要な手法となっているが, 臨界二倍偏差に悩まされている。
このようなバイアスを3段階のリサンプリング機構によって緩和する新しいDMフレームワークであるFairSkinを提案する。
本手法は, 画像の多様性と品質を著しく向上させ, 臨床環境における皮膚疾患の検出精度の向上に寄与する。
論文 参考訳(メタデータ) (2024-10-29T21:37:03Z) - Attention Based Feature Fusion Network for Monkeypox Skin Lesion Detection [0.09642500063568188]
最近のサルポックスの流行は公衆衛生に重大な懸念をもたらしている。
深層学習アルゴリズムは、新型コロナウイルス(COVID-19)を含む病気の特定に利用できる。
本稿では,ヒトサルポックス病を分類するために,事前学習した2つのアーキテクチャをマージする軽量モデルを提案する。
論文 参考訳(メタデータ) (2024-08-13T05:21:03Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Multilayer Perceptron Network Discriminates Larval Zebrafish Genotype
using Behaviour [0.0]
5日間の遺伝子型によるパーキンソン病のゼブラフィッシュモデルの分類法を提案する。
多層パーセプトロンニューラルネットワークを訓練する。
統合的な勾配を用いることで、モデルによる遺伝子型分類に対する各行動特徴の影響を把握できることを示す。
論文 参考訳(メタデータ) (2022-11-06T07:36:31Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Hierarchical Knowledge Guided Learning for Real-world Retinal Diseases
Recognition [20.88407972858568]
眼科AIで最近発表されたいくつかのデータセットは、40種類以上の網膜疾患からなり、複雑な異常と様々な致死性がある。
モデリングの観点からは、これらのデータセットでトレーニングされたほとんどのディープラーニングモデルは、まれな疾患に一般化する能力に欠ける可能性がある。
本稿では,網膜疾患認識のための長期データベースから深部ニューラルネットワークを学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-17T05:44:39Z) - Cross-Site Severity Assessment of COVID-19 from CT Images via Domain
Adaptation [64.59521853145368]
CT画像によるコロナウイルス病2019(COVID-19)の早期かつ正確な重症度評価は,集中治療単位のイベント推定に有効である。
ラベル付きデータを拡張し、分類モデルの一般化能力を向上させるためには、複数のサイトからデータを集約する必要がある。
この課題は、軽度の感染症と重度の感染症の集団不均衡、部位間のドメイン分布の相違、不均一な特徴の存在など、いくつかの課題に直面する。
論文 参考訳(メタデータ) (2021-09-08T07:56:51Z) - Inter-Species Cell Detection: Datasets on pulmonary hemosiderophages in
equine, human and feline specimens [4.440463265335838]
肺出血(P-Hem)は多種多様な原因がある。
そこで本研究では, 74個のスライド画像(WSI)からなり, ウマ, ネコおよびヒトのサンプルからなる, 完全注釈付き多種多種P-Hemデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-19T06:57:33Z) - Dual-Consistency Semi-Supervised Learning with Uncertainty
Quantification for COVID-19 Lesion Segmentation from CT Images [49.1861463923357]
CT画像を用いた半監視型COVID-19病変分割のための不確実性誘導型二重一貫性学習ネットワーク(UDC-Net)を提案する。
提案した UDC-Net は,Dice の完全教師方式を 6.3% 向上させ,他の競合的半監督方式を有意なマージンで上回っている。
論文 参考訳(メタデータ) (2021-04-07T16:23:35Z) - VoxelHop: Successive Subspace Learning for ALS Disease Classification
Using Structural MRI [30.469124322749828]
Amyotrophic Lateral Sclerosis (ALS) の正確な分類のためのサブスペース学習モデルである VoxelHop を提案する。
一般的な畳み込みニューラルネットワーク(CNN)アーキテクチャと比較して、VoxelHopはモジュール構造と透過構造を持ち、バックプロパゲーションなしではパラメータが少ない。
我々のフレームワークは、異なる画像モダリティを用いて、他の分類タスクに容易に一般化できる。
論文 参考訳(メタデータ) (2021-01-13T15:25:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。