論文の概要: An Interactive Interpretability System for Breast Cancer Screening with
Deep Learning
- arxiv url: http://arxiv.org/abs/2210.08979v1
- Date: Fri, 30 Sep 2022 02:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 20:34:50.920063
- Title: An Interactive Interpretability System for Breast Cancer Screening with
Deep Learning
- Title(参考訳): 深層学習を用いた乳癌検診のための対話型解釈システム
- Authors: Yuzhe Lu, Adam Perer
- Abstract要約: 乳がん検診の放射線科医を支援するために,最先端の解釈可能性技術を活用するインタラクティブシステムを提案する。
本システムは, 深層学習モデルを放射線学者のワークフローに統合し, モデル決定プロセスの理解を促進するために, 新たなインタラクションを提供する。
- 参考スコア(独自算出の注目度): 11.28741778902131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods, in particular convolutional neural networks, have
emerged as a powerful tool in medical image computing tasks. While these
complex models provide excellent performance, their black-box nature may hinder
real-world adoption in high-stakes decision-making. In this paper, we propose
an interactive system to take advantage of state-of-the-art interpretability
techniques to assist radiologists with breast cancer screening. Our system
integrates a deep learning model into the radiologists' workflow and provides
novel interactions to promote understanding of the model's decision-making
process. Moreover, we demonstrate that our system can take advantage of user
interactions progressively to provide finer-grained explainability reports with
little labeling overhead. Due to the generic nature of the adopted
interpretability technique, our system is domain-agnostic and can be used for
many different medical image computing tasks, presenting a novel perspective on
how we can leverage visual analytics to transform originally static
interpretability techniques to augment human decision making and promote the
adoption of medical AI.
- Abstract(参考訳): 深層学習、特に畳み込みニューラルネットワークは、医用画像処理タスクにおいて強力なツールとして登場した。
これらの複雑なモデルは優れた性能を提供するが、ブラックボックスの性質は、高い意思決定において現実の採用を妨げる可能性がある。
本稿では,乳がん検診における放射線科医支援のための最新診断技術を活用したインタラクティブシステムを提案する。
本システムは, 深層学習モデルを放射線学者のワークフローに統合し, モデル決定プロセスの理解を促進するために, 新たなインタラクションを提供する。
さらに, ユーザのインタラクションを段階的に活用して, ラベル付けのオーバーヘッドが少なく, より詳細な説明可能性レポートを提供できることを示す。
提案手法の汎用性から,本システムはドメイン非依存であり,様々な医用画像処理タスクに利用可能であり,視覚分析を用いて元々の静的解釈技術を変換し,人間の意思決定を増強し,医療aiの採用を促進するための新しい視点を提示する。
関連論文リスト
- Enhancing Breast Cancer Diagnosis in Mammography: Evaluation and Integration of Convolutional Neural Networks and Explainable AI [0.0]
本研究では,畳み込みニューラルネットワーク(CNN)と説明可能な人工知能(XAI)を組み合わせて乳がんの診断を高度化するための統合フレームワークを提案する。
この方法論は、データセットの制限に対処するために、精巧なデータ前処理パイプラインと高度なデータ拡張技術を含んでいる。
本研究の焦点は,モデル予測の解釈におけるXAIの有効性を評価することである。
論文 参考訳(メタデータ) (2024-04-05T05:00:21Z) - Dermacen Analytica: A Novel Methodology Integrating Multi-Modal Large Language Models with Machine Learning in tele-dermatology [1.999925939110439]
我々は,皮膚病変やその他の皮膚疾患の診断プロセスを支援するために,人工知能を活用したシステムと手法を記述し,実装し,評価する。
提案手法は次世代の遠隔皮膚科アプリケーションの開発に有用であることが期待される。
論文 参考訳(メタデータ) (2024-03-21T09:02:17Z) - Explainable Transformer Prototypes for Medical Diagnoses [7.680878119988482]
変圧器の自己注意機能は、分類過程において重要な領域を特定することに寄与する。
我々の研究は、「ピクセル」ではなく「領域」間の相関を裏付けるユニークな注意ブロックを革新する試みである。
大規模なNIH胸部X線データセットにおいて, 定量的, 定性的手法を併用し, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-03-11T17:46:21Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification [0.0]
画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用は、そのようなシステムの性能を急速に向上させてきた。
医用画像分類システムは、精度が高く、多くのタスクにおいてヒトの医師と同等に近いため、採用されている。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
論文 参考訳(メタデータ) (2022-12-10T06:17:43Z) - Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods [3.3918638314432936]
ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
論文 参考訳(メタデータ) (2021-11-01T01:42:26Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。