論文の概要: Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography
- arxiv url: http://arxiv.org/abs/2207.09312v1
- Date: Tue, 19 Jul 2022 14:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:38:46.392681
- Title: Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography
- Title(参考訳): 信頼できる医療AIを目指して - チェストラジオグラフィーによる新型コロナウイルススクリーニングのための注意に基づく特徴学習
- Authors: Kai Ma, Pengcheng Xi, Karim Habashy, Ashkan Ebadi, St\'ephane
Tremblay, Alexander Wong
- Abstract要約: 信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
これまでの研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用していた。
本稿では,視覚変換器を用いた特徴学習手法を提案する。
- 参考スコア(独自算出の注目度): 70.37371604119826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building AI models with trustworthiness is important especially in regulated
areas such as healthcare. In tackling COVID-19, previous work uses
convolutional neural networks as the backbone architecture, which has shown to
be prone to over-caution and overconfidence in making decisions, rendering them
less trustworthy -- a crucial flaw in the context of medical imaging. In this
study, we propose a feature learning approach using Vision Transformers, which
use an attention-based mechanism, and examine the representation learning
capability of Transformers as a new backbone architecture for medical imaging.
Through the task of classifying COVID-19 chest radiographs, we investigate into
whether generalization capabilities benefit solely from Vision Transformers'
architectural advances. Quantitative and qualitative evaluations are conducted
on the trustworthiness of the models, through the use of "trust score"
computation and a visual explainability technique. We conclude that the
attention-based feature learning approach is promising in building trustworthy
deep learning models for healthcare.
- Abstract(参考訳): 信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
従来の研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用しているが、これは過剰な予防と過剰な信頼感を招き、医療画像のコンテキストにおける重大な欠陥である。
本研究では,注意に基づくメカニズムを用いた視覚トランスフォーマーを用いた特徴学習手法を提案し,医療画像のための新しいバックボーンアーキテクチャとしてトランスフォーマーの表現学習能力を検討する。
新型コロナウイルスの胸部X線写真分類の課題を通じて,ビジョントランスフォーマーのアーキテクチャ進歩にのみメリットがあるかを検討する。
定量的・質的評価は,「信頼度」計算と視覚的説明可能性手法を用いて,モデルの信頼性について行った。
注意に基づく機能学習アプローチは、医療のための信頼できるディープラーニングモデルを構築する上で有望であると結論づける。
関連論文リスト
- Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Explainable Transformer Prototypes for Medical Diagnoses [7.680878119988482]
変圧器の自己注意機能は、分類過程において重要な領域を特定することに寄与する。
我々の研究は、「ピクセル」ではなく「領域」間の相関を裏付けるユニークな注意ブロックを革新する試みである。
大規模なNIH胸部X線データセットにおいて, 定量的, 定性的手法を併用し, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-03-11T17:46:21Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - Understanding The Robustness in Vision Transformers [140.1090560977082]
自己注意は、改善された中レベルの表現を通して堅牢性を促進する。
我々は、この能力を強化するために、フルアテンショナルネットワーク(FAN)のファミリーを提案する。
我々のモデルは、76.8Mパラメータを持つImageNet-1kおよびImageNet-C上で、最先端の87.1%の精度と35.8%のmCEを達成する。
論文 参考訳(メタデータ) (2022-04-26T17:16:32Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。