論文の概要: CIFF-Net: Contextual Image Feature Fusion for Melanoma Diagnosis
- arxiv url: http://arxiv.org/abs/2303.03672v1
- Date: Tue, 7 Mar 2023 06:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 16:28:27.190793
- Title: CIFF-Net: Contextual Image Feature Fusion for Melanoma Diagnosis
- Title(参考訳): CIFF-Net: メラノーマ診断のためのコンテキスト画像特徴フュージョン
- Authors: Md Awsafur Rahman, Bishmoy Paul, Tanvir Mahmud and Shaikh Anowarul
Fattah
- Abstract要約: メラノーマは、皮膚がん死の75%程度の原因となる皮膚がんの致命的な変異であると考えられている。
メラノーマを診断するために、臨床医は同一患者の複数の皮膚病変を同時に評価し、比較する。
この同時多重画像比較法は,既存の深層学習方式では検討されていない。
- 参考スコア(独自算出の注目度): 0.4129225533930966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Melanoma is considered to be the deadliest variant of skin cancer causing
around 75\% of total skin cancer deaths. To diagnose Melanoma, clinicians
assess and compare multiple skin lesions of the same patient concurrently to
gather contextual information regarding the patterns, and abnormality of the
skin. So far this concurrent multi-image comparative method has not been
explored by existing deep learning-based schemes. In this paper, based on
contextual image feature fusion (CIFF), a deep neural network (CIFF-Net) is
proposed, which integrates patient-level contextual information into the
traditional approaches for improved Melanoma diagnosis by concurrent
multi-image comparative method. The proposed multi-kernel self attention (MKSA)
module offers better generalization of the extracted features by introducing
multi-kernel operations in the self attention mechanisms. To utilize both self
attention and contextual feature-wise attention, an attention guided module
named contextual feature fusion (CFF) is proposed that integrates extracted
features from different contextual images into a single feature vector.
Finally, in comparative contextual feature fusion (CCFF) module, primary and
contextual features are compared concurrently to generate comparative features.
Significant improvement in performance has been achieved on the ISIC-2020
dataset over the traditional approaches that validate the effectiveness of the
proposed contextual learning scheme.
- Abstract(参考訳): メラノーマは皮膚がんの最も致命的な変種と考えられており、全皮膚がんの75%が死亡している。
メラノーマを診断するために、臨床医は同一患者の複数の皮膚病変を同時に評価して比較し、皮膚のパターンや異常に関する文脈情報を収集する。
これまでのところ、この同時多重画像比較法は、既存のディープラーニング方式では検討されていない。
本稿では,コンテクスト画像特徴融合(ciff)に基づいて,患者レベルのコンテクスト情報を従来の手法と統合した深層ニューラルネットワーク(ciff-net)を提案する。
提案するマルチカーネル・セルフアテンション(MKSA)モジュールは,自己アテンション機構にマルチカーネル操作を導入することにより,抽出した特徴をより一般化する。
自己注意と文脈特徴量の両方を利用するために、異なる文脈画像から抽出した特徴を単一の特徴ベクトルに統合する、文脈特徴量融合(CFF)と呼ばれる注意誘導モジュールを提案する。
最後に、比較文脈特徴融合(CCFF)モジュールでは、一次特徴と文脈特徴を同時に比較して比較特徴を生成する。
提案手法の有効性を検証する従来のアプローチに比べて,isic-2020データセットの性能が大幅に向上している。
関連論文リスト
- Decomposing Disease Descriptions for Enhanced Pathology Detection: A
Multi-Aspect Vision-Language Matching Framework [46.35091679002615]
医学的な視覚言語事前訓練は研究の最前線として現れ、ゼロショットの病理診断を可能にしている。
現在, 医療画像と病理所見の整合に苦慮している。
これは、大きな言語モデルと医療専門家に相談することで達成される。
我々の成績は最近の手法を8.07%、AUCでは11.23%で上回っている。
論文 参考訳(メタデータ) (2024-03-12T13:18:22Z) - MV-Swin-T: Mammogram Classification with Multi-view Swin Transformer [0.257133335028485]
マンモグラフィ画像分類における課題に対処するために,トランスフォーマーに基づく革新的なマルチビューネットワークを提案する。
提案手法では,ウィンドウベースの動的アテンションブロックを導入し,マルチビュー情報の効果的な統合を容易にする。
論文 参考訳(メタデータ) (2024-02-26T04:41:04Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Joint-Individual Fusion Structure with Fusion Attention Module for
Multi-Modal Skin Cancer Classification [10.959827268372422]
皮膚がん分類のための皮膚画像と患者メタデータを組み合わせた新しい融合法を提案する。
まず,多モードデータの共有特徴を学習する統合個別融合(JIF)構造を提案する。
第2に、最も関連性の高い画像とメタデータ機能を強化する統合アテンション(FA)モジュールを導入する。
論文 参考訳(メタデータ) (2023-12-07T10:16:21Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Multi-modal Medical Neurological Image Fusion using Wavelet Pooled Edge
Preserving Autoencoder [3.3828292731430545]
本稿では,エッジ保存型高密度オートエンコーダネットワークに基づくマルチモーダル医用画像に対するエンドツーエンド非教師付き核融合モデルを提案する。
提案モデルでは,特徴マップのウェーブレット分解に基づくアテンションプールを用いて特徴抽出を改善する。
提案モデルでは,ソース画像の強度分布の把握を支援する様々な医用画像ペアを訓練する。
論文 参考訳(メタデータ) (2023-10-18T11:59:35Z) - LCAUnet: A skin lesion segmentation network with enhanced edge and body
fusion [4.819821513256158]
LCAUnetは、エッジとボディの特徴の融合による相補表現の能力を向上させるために提案されている。
公開データセットISIC 2017、ISIC 2018、PH2の実験では、LCAUnetが最先端の手法よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-05-01T14:05:53Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Bi-directional Dermoscopic Feature Learning and Multi-scale Consistent
Decision Fusion for Skin Lesion Segmentation [28.300486641368234]
本稿では,皮膚病変と情報的文脈との複雑な相関をモデル化する,新しい双方向皮膚機能学習(biDFL)フレームワークを提案する。
また,複数の分類層から発生する情報的決定に選択的に集中できるマルチスケール一貫した決定融合(mCDF)を提案する。
論文 参考訳(メタデータ) (2020-02-20T12:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。