論文の概要: Transformer-based interpretable multi-modal data fusion for skin lesion
classification
- arxiv url: http://arxiv.org/abs/2304.14505v1
- Date: Mon, 3 Apr 2023 11:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 16:13:11.506234
- Title: Transformer-based interpretable multi-modal data fusion for skin lesion
classification
- Title(参考訳): Transformer-based interpretable multi-modal data fusion による皮膚病変分類
- Authors: Theodor Cheslerean-Boghiu, Melia-Evelina Fleischmann, Theresa Willem,
Tobias Lasser
- Abstract要約: 皮膚科における皮膚病変分類では、深層学習システムは、意思決定プロセスの透明性が限られているため、まだ初期段階にある。
本稿では, 皮膚疾患の診断を支援するため, トランスフォーマーアーキテクチャの注意機構を介し, 単一ステージ多モードデータ融合を提案する。
本手法は,画像リッチおよび患者データリッチ環境において,最先端のシングルモーダルかつマルチモーダルなDLアーキテクチャを克服する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A lot of deep learning (DL) research these days is mainly focused on
improving on quantitative metrics regardless of other factors. In human
centered applications, like skin lesion classification in dermatology,
DL-driven clinical decision support systems are still in their infancy due to
the limited transparency of their decision-making process. Moreover, the lack
of procedures that can explain the behavior of trained DL algorithms leads to
almost no trust from the clinical physicians. To diagnose skin lesions,
dermatologists rely on both visual assessment of the disease and the data
gathered from the anamnesis of the patient. Data-driven algorithms dealing with
multi-modal data are limited by the separation of feature-level and
decision-level fusion procedures required by convolutional architectures. To
address this issue, we enable single-stage multi-modal data fusion via the
attention mechanism of transformer-based architectures to aid in the diagnosis
of skin diseases. Our method beats other state-of-the-art single- and
multi-modal DL architectures in both image rich and patient-data rich
environments. Additionally, the choice of the architecture enables native
interpretability support for the classification task both in image and metadata
domain with no additional modifications necessary.
- Abstract(参考訳): 近年、多くのディープラーニング(dl)研究が、他の要因に関わらず定量的指標の改善に重点を置いている。
皮膚科における皮膚病変分類のようなヒト中心のアプリケーションでは、dl駆動の臨床決定支援システムは、意思決定プロセスの透明性が限られているため、まだ初期段階にある。
さらに、訓練されたDLアルゴリズムの動作を説明するための手順の欠如は、臨床医の信頼をほとんど得られない。
皮膚病変の診断には、皮膚科医は疾患の視覚的評価と患者の麻酔から収集されたデータの両方に依存している。
マルチモーダルデータを扱うデータ駆動アルゴリズムは、畳み込みアーキテクチャに必要な特徴レベルと決定レベルの融合手順の分離によって制限される。
この問題に対処するため,トランスフォーマーアーキテクチャのアテンション機構を介し,単一段階のマルチモーダルデータ融合を実現し,皮膚疾患の診断に役立てる。
本手法は,画像リッチおよび患者データリッチ環境において,最先端のシングルモーダルかつマルチモーダルなDLアーキテクチャを上回る。
さらに、アーキテクチャの選択により、イメージドメインとメタデータドメインの両方で、追加の修正を必要とせずに、分類タスクのネイティブ解釈サポートが可能になる。
関連論文リスト
- UNICORN: A Deep Learning Model for Integrating Multi-Stain Data in Histopathology [2.9389205138207277]
UNICORNは動脈硬化の重症度予測のための多段階組織学を処理できるマルチモーダルトランスフォーマーである。
このアーキテクチャは、2段階のエンドツーエンドのトレーニング可能なモデルと、トランスフォーマーの自己保持ブロックを利用する特殊なモジュールから構成される。
UNICORNは0.67の分類精度を達成し、他の最先端モデルを上回った。
論文 参考訳(メタデータ) (2024-09-26T12:13:52Z) - Personalized 2D Binary Patient Codes of Tissue Images and Immunogenomic Data Through Multimodal Self-Supervised Fusion [0.9374652839580183]
MarbliXは、病理組織像と免疫ゲノムシークエンシングデータを統合し、それらを簡潔なバイナリー患者コードにカプセル化する革新的なフレームワークである。
実験の結果は、医療専門家に深い洞察を与えるMarbliXの可能性を示している。
論文 参考訳(メタデータ) (2024-09-19T22:49:27Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - Multimodal Explainability via Latent Shift applied to COVID-19 stratification [0.7831774233149619]
本稿では,モダリティの再構築とサンプル分類を共同で学習するディープアーキテクチャを提案する。
AIforCOVIDデータセットを使用して、COVID-19パンデミックの文脈でのアプローチを検証する。
論文 参考訳(メタデータ) (2022-12-28T20:07:43Z) - Medical Diagnosis with Large Scale Multimodal Transformers: Leveraging
Diverse Data for More Accurate Diagnosis [0.15776842283814416]
我々は「学習可能なシナジー」の新しい技術的アプローチを提案する。
我々のアプローチは容易に拡張可能であり、臨床ルーチンからのマルチモーダルデータ入力に自然に適応する。
臨床的に関連のある診断タスクにおいて、最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2022-12-18T20:43:37Z) - MMLN: Leveraging Domain Knowledge for Multimodal Diagnosis [10.133715767542386]
肺疾患診断のための知識駆動型およびデータ駆動型フレームワークを提案する。
本研究は, 臨床医学ガイドラインに従って診断規則を定式化し, テキストデータから規則の重みを学習する。
テキストと画像データからなるマルチモーダル融合は、肺疾患の限界確率を推定するために設計されている。
論文 参考訳(メタデータ) (2022-02-09T04:12:30Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。