論文の概要: Explainable Transformer Prototypes for Medical Diagnoses
- arxiv url: http://arxiv.org/abs/2403.06961v1
- Date: Mon, 11 Mar 2024 17:46:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 17:45:09.814905
- Title: Explainable Transformer Prototypes for Medical Diagnoses
- Title(参考訳): 医療診断のための説明可能なトランスフォーマープロトタイプ
- Authors: Ugur Demir, Debesh Jha, Zheyuan Zhang, Elif Keles, Bradley Allen,
Aggelos K. Katsaggelos, Ulas Bagci
- Abstract要約: 変圧器の自己注意機能は、分類過程において重要な領域を特定することに寄与する。
我々の研究は、「ピクセル」ではなく「領域」間の相関を裏付けるユニークな注意ブロックを革新する試みである。
大規模なNIH胸部X線データセットにおいて, 定量的, 定性的手法を併用し, 提案手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 7.680878119988482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deployments of artificial intelligence in medical diagnostics mandate not
just accuracy and efficacy but also trust, emphasizing the need for
explainability in machine decisions. The recent trend in automated medical
image diagnostics leans towards the deployment of Transformer-based
architectures, credited to their impressive capabilities. Since the
self-attention feature of transformers contributes towards identifying crucial
regions during the classification process, they enhance the trustability of the
methods. However, the complex intricacies of these attention mechanisms may
fall short of effectively pinpointing the regions of interest directly
influencing AI decisions. Our research endeavors to innovate a unique attention
block that underscores the correlation between 'regions' rather than 'pixels'.
To address this challenge, we introduce an innovative system grounded in
prototype learning, featuring an advanced self-attention mechanism that goes
beyond conventional ad-hoc visual explanation techniques by offering
comprehensible visual insights. A combined quantitative and qualitative
methodological approach was used to demonstrate the effectiveness of the
proposed method on the large-scale NIH chest X-ray dataset. Experimental
results showed that our proposed method offers a promising direction for
explainability, which can lead to the development of more trustable systems,
which can facilitate easier and rapid adoption of such technology into routine
clinics. The code is available at www.github.com/NUBagcilab/r2r_proto.
- Abstract(参考訳): 医療診断における人工知能の展開は、正確性と有効性だけでなく、マシン決定における説明可能性の必要性を強調する信頼も要求している。
自動医療画像診断の最近のトレンドは、その素晴らしい能力によって、トランスフォーマーベースのアーキテクチャの展開に傾いている。
変圧器の自己注意特性は, 分類過程において重要な領域の特定に寄与するため, 手法の信頼性が向上する。
しかし、これらの注意機構の複雑な複雑さは、AI決定に直接影響を及ぼす関心領域を効果的に特定できない可能性がある。
本研究は,「ピクセル」ではなく「領域」間の相関を強調するユニークな注意ブロックを革新することを目指している。
この課題に対処するために,我々は,従来のアドホックな視覚説明手法を越え,理解可能な視覚的洞察を提供する先進的な自己認識機構を特徴とする,プロトタイプ学習に基づく革新的なシステムを提案する。
大規模なNIH胸部X線データセットに対する提案手法の有効性を示すために, 定量的および定性的手法を併用した。
実験結果から,本手法は,より信頼性の高いシステム開発につながる可能性があり,より容易かつ迅速な臨床応用が可能であることが示唆された。
コードはwww.github.com/NUBagcilab/r2r_protoで入手できる。
関連論文リスト
- Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery [6.1521675665532545]
医用画像では、AIモデルの予測の背後にある根拠を明らかにすることが、信頼性を評価する上で重要である。
本稿では,意思決定推論と特徴識別機能を備えた説明可能なモデルを提案する。
提案手法を実装することにより,データ駆動モデルにより活用されるクラス固有の特徴を効果的に識別および可視化することができる。
論文 参考訳(メタデータ) (2024-05-23T19:00:38Z) - Explainable AI in Diagnosing and Anticipating Leukemia Using Transfer
Learning Method [0.0]
本研究は,小児および10代に流行する急性リンパ芽球性白血病(ALL)に焦点をあてる。
ディープラーニング技術を活用したコンピュータ支援診断(CAD)モデルを用いた自動検出手法を提案する。
提案手法は98.38%の精度を達成し、他の試験モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-12-01T10:37:02Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Parameter-Efficient Transformer with Hybrid Axial-Attention for Medical
Image Segmentation [10.441315305453504]
医用画像セグメンテーションのための位置情報を用いた本質的帰納バイアスを探索するパラメータ効率変換器を提案する。
そこで本研究では,空間画素情報と相対位置情報を帰納バイアスとして利用できるハイブリッド軸アテンション(HAA)を提案する。
論文 参考訳(メタデータ) (2022-11-17T13:54:55Z) - An Interactive Interpretability System for Breast Cancer Screening with
Deep Learning [11.28741778902131]
乳がん検診の放射線科医を支援するために,最先端の解釈可能性技術を活用するインタラクティブシステムを提案する。
本システムは, 深層学習モデルを放射線学者のワークフローに統合し, モデル決定プロセスの理解を促進するために, 新たなインタラクションを提供する。
論文 参考訳(メタデータ) (2022-09-30T02:19:49Z) - Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography [70.37371604119826]
信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
これまでの研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用していた。
本稿では,視覚変換器を用いた特徴学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T14:55:42Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。