論文の概要: CIFF-Net: Contextual Image Feature Fusion for Melanoma Diagnosis
- arxiv url: http://arxiv.org/abs/2303.03672v1
- Date: Tue, 7 Mar 2023 06:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 16:28:27.190793
- Title: CIFF-Net: Contextual Image Feature Fusion for Melanoma Diagnosis
- Title(参考訳): CIFF-Net: メラノーマ診断のためのコンテキスト画像特徴フュージョン
- Authors: Md Awsafur Rahman, Bishmoy Paul, Tanvir Mahmud and Shaikh Anowarul
Fattah
- Abstract要約: メラノーマは、皮膚がん死の75%程度の原因となる皮膚がんの致命的な変異であると考えられている。
メラノーマを診断するために、臨床医は同一患者の複数の皮膚病変を同時に評価し、比較する。
この同時多重画像比較法は,既存の深層学習方式では検討されていない。
- 参考スコア(独自算出の注目度): 0.4129225533930966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Melanoma is considered to be the deadliest variant of skin cancer causing
around 75\% of total skin cancer deaths. To diagnose Melanoma, clinicians
assess and compare multiple skin lesions of the same patient concurrently to
gather contextual information regarding the patterns, and abnormality of the
skin. So far this concurrent multi-image comparative method has not been
explored by existing deep learning-based schemes. In this paper, based on
contextual image feature fusion (CIFF), a deep neural network (CIFF-Net) is
proposed, which integrates patient-level contextual information into the
traditional approaches for improved Melanoma diagnosis by concurrent
multi-image comparative method. The proposed multi-kernel self attention (MKSA)
module offers better generalization of the extracted features by introducing
multi-kernel operations in the self attention mechanisms. To utilize both self
attention and contextual feature-wise attention, an attention guided module
named contextual feature fusion (CFF) is proposed that integrates extracted
features from different contextual images into a single feature vector.
Finally, in comparative contextual feature fusion (CCFF) module, primary and
contextual features are compared concurrently to generate comparative features.
Significant improvement in performance has been achieved on the ISIC-2020
dataset over the traditional approaches that validate the effectiveness of the
proposed contextual learning scheme.
- Abstract(参考訳): メラノーマは皮膚がんの最も致命的な変種と考えられており、全皮膚がんの75%が死亡している。
メラノーマを診断するために、臨床医は同一患者の複数の皮膚病変を同時に評価して比較し、皮膚のパターンや異常に関する文脈情報を収集する。
これまでのところ、この同時多重画像比較法は、既存のディープラーニング方式では検討されていない。
本稿では,コンテクスト画像特徴融合(ciff)に基づいて,患者レベルのコンテクスト情報を従来の手法と統合した深層ニューラルネットワーク(ciff-net)を提案する。
提案するマルチカーネル・セルフアテンション(MKSA)モジュールは,自己アテンション機構にマルチカーネル操作を導入することにより,抽出した特徴をより一般化する。
自己注意と文脈特徴量の両方を利用するために、異なる文脈画像から抽出した特徴を単一の特徴ベクトルに統合する、文脈特徴量融合(CFF)と呼ばれる注意誘導モジュールを提案する。
最後に、比較文脈特徴融合(CCFF)モジュールでは、一次特徴と文脈特徴を同時に比較して比較特徴を生成する。
提案手法の有効性を検証する従来のアプローチに比べて,isic-2020データセットの性能が大幅に向上している。
関連論文リスト
- Enhancing Multimodal Medical Image Classification using Cross-Graph Modal Contrastive Learning [5.660131312162423]
本稿では,マルチモーダルな医用画像分類のためのクロスグラフ・モーダルコントラスト学習フレームワークを提案する。
提案手法は、パーキンソン病(PD)データセットと公共メラノーマデータセットの2つのデータセットで評価される。
以上の結果から,CGMCLは従来手法よりも精度,解釈可能性,早期疾患予測に優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-23T01:25:25Z) - Multiscale Color Guided Attention Ensemble Classifier for Age-Related Macular Degeneration using Concurrent Fundus and Optical Coherence Tomography Images [1.159256777373941]
本稿では,移動学習に基づく注意機構を組み込んだモダリティ特化多スケールカラースペースの組込みを提案する。
MCGAEc法の性能を解析するために,Project Macula for AMDから公開されているマルチモーダルデータセットを活用し,既存のモデルと比較した。
論文 参考訳(メタデータ) (2024-09-01T13:17:45Z) - Pay Less On Clinical Images: Asymmetric Multi-Modal Fusion Method For Efficient Multi-Label Skin Lesion Classification [6.195015783344803]
既存のマルチモーダルアプローチは主に、高度な融合モジュールによるマルチラベル皮膚病変分類性能の向上に重点を置いている。
本稿では, 効率的な多ラベル皮膚病変分類のための新しい非対称多モード融合法を提案する。
論文 参考訳(メタデータ) (2024-07-13T20:46:04Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Joint-Individual Fusion Structure with Fusion Attention Module for
Multi-Modal Skin Cancer Classification [10.959827268372422]
皮膚がん分類のための皮膚画像と患者メタデータを組み合わせた新しい融合法を提案する。
まず,多モードデータの共有特徴を学習する統合個別融合(JIF)構造を提案する。
第2に、最も関連性の高い画像とメタデータ機能を強化する統合アテンション(FA)モジュールを導入する。
論文 参考訳(メタデータ) (2023-12-07T10:16:21Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Bi-directional Dermoscopic Feature Learning and Multi-scale Consistent
Decision Fusion for Skin Lesion Segmentation [28.300486641368234]
本稿では,皮膚病変と情報的文脈との複雑な相関をモデル化する,新しい双方向皮膚機能学習(biDFL)フレームワークを提案する。
また,複数の分類層から発生する情報的決定に選択的に集中できるマルチスケール一貫した決定融合(mCDF)を提案する。
論文 参考訳(メタデータ) (2020-02-20T12:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。