論文の概要: CAIPI in Practice: Towards Explainable Interactive Medical Image
Classification
- arxiv url: http://arxiv.org/abs/2204.02661v1
- Date: Wed, 6 Apr 2022 08:21:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 14:16:56.106689
- Title: CAIPI in Practice: Towards Explainable Interactive Medical Image
Classification
- Title(参考訳): CAIPIの実践 : 説明可能な医用画像分類を目指して
- Authors: Emanuel Slany, Yannik Ott, Stephan Scheele, Jan Paulus, Ute Schmid
- Abstract要約: 本稿では、画像分類のための説明可能な対話型CAIPIアルゴリズムを拡張する。
画像分類のためのヒューマン・イン・ザ・ループアプローチを簡単にするためのインターフェースを提供する。
医療MNISTで9,7.48%、ファッションMNISTで9,5.02%の精度を達成している。
- 参考スコア(独自算出の注目度): 0.8137198664755597
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Would you trust physicians if they cannot explain their decisions to you?
Medical diagnostics using machine learning gained enormously in importance
within the last decade. However, without further enhancements many
state-of-the-art machine learning methods are not suitable for medical
application. The most important reasons are insufficient data set quality and
the black-box behavior of machine learning algorithms such as Deep Learning
models. Consequently, end-users cannot correct the model's decisions and the
corresponding explanations. The latter is crucial for the trustworthiness of
machine learning in the medical domain. The research field explainable
interactive machine learning searches for methods that address both
shortcomings. This paper extends the explainable and interactive CAIPI
algorithm and provides an interface to simplify human-in-the-loop approaches
for image classification. The interface enables the end-user (1) to investigate
and (2) to correct the model's prediction and explanation, and (3) to influence
the data set quality. After CAIPI optimization with only a single
counterexample per iteration, the model achieves an accuracy of $97.48\%$ on
the Medical MNIST and $95.02\%$ on the Fashion MNIST. This accuracy is
approximately equal to state-of-the-art Deep Learning optimization procedures.
Besides, CAIPI reduces the labeling effort by approximately $80\%$.
- Abstract(参考訳): 決定を説明できない医師を信頼していただけませんか。
機械学習を用いた医療診断は、過去10年間で非常に重要になった。
しかし、さらなる強化がなければ、最先端の機械学習手法は医療応用には適さない。
最も重要な理由はデータセットの品質の不足とディープラーニングモデルのような機械学習アルゴリズムのブラックボックス動作である。
したがって、エンドユーザはモデルの決定と対応する説明を修正できない。
後者は、医療分野における機械学習の信頼性に不可欠である。
研究分野は、双方の欠点に対処する手法を対話型機械学習で探索する。
本稿では,説明可能かつインタラクティブなcaipiアルゴリズムを拡張し,画像分類のためのヒューマン・イン・ザ・ループアプローチを単純化するインタフェースを提供する。
このインタフェースにより、エンドユーザー(1)はモデルの予測と説明を調査し、(2)修正し、(3)データセットの品質に影響を与えることができる。
caipiの最適化では、1イテレーションに1つの反例しか持たないが、モデルでは医療用mnistに$97.48\%、ファッションmnistに$95.02\%の精度が得られる。
この精度は、最先端のディープラーニング最適化手順にほぼ等しい。
さらに、CAIPIはラベリングの労力を約80\%のコストで削減する。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Machine Unlearning for Medical Imaging [14.71921867714043]
機械学習は、事前訓練されたモデルから特定のトレーニングサンプル群の影響を取り除くプロセスである。
医用画像領域における異なる未学習アルゴリズムの有効性と計算効率を評価する。
論文 参考訳(メタデータ) (2024-07-10T10:59:28Z) - Using a Convolutional Neural Network and Explainable AI to Diagnose Dementia Based on MRI Scans [9.019755267796077]
畳み込みニューラルネットワークは、6400のMRIスキャンを4つの認知症クラスに分割したオープンソースのデータベースを使用して開発、訓練されている。
モデルの精度は98%に達し、適合性が高く、新しいデータに一般化できることが示されている。
説明可能なAIアルゴリズムは、各畳み込み層における個々のフィルタの出力を可視化することにより開発された。
論文 参考訳(メタデータ) (2024-05-26T03:06:25Z) - DDxT: Deep Generative Transformer Models for Differential Diagnosis [51.25660111437394]
より単純な教師付き学習信号と自己教師付き学習信号で訓練した生成的アプローチが,現在のベンチマークにおいて優れた結果が得られることを示す。
The proposed Transformer-based generative network, named DDxT, autoregressive produce a set of possible pathology,, i. DDx, and predicts the real pathology using a neural network。
論文 参考訳(メタデータ) (2023-12-02T22:57:25Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Missing Values and Imputation in Healthcare Data: Can Interpretable
Machine Learning Help? [31.331173083093987]
我々は、近年の解釈可能な機械学習の進歩が、欠落した価値問題を理解し、対処するための新たな視点を提供することを示す。
高精度ガラス箱説明型ブースティングマシン(EBMs)に基づく手法を提案する。
実世界の医療データセットの実験では,提案手法の有効性が示されている。
論文 参考訳(メタデータ) (2023-04-23T20:54:47Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - FedMed-ATL: Misaligned Unpaired Brain Image Synthesis via Affine
Transform Loss [58.58979566599889]
脳画像合成のための新しい自己教師型学習(FedMed)を提案する。
アフィン変換損失(ATL)は、プライバシー法に違反することなく、ひどく歪んだ画像を使用するように定式化された。
提案手法は, 極めて不整合かつ不整合なデータ設定下での合成結果の品質の両方において, 高度な性能を示す。
論文 参考訳(メタデータ) (2022-01-29T13:45:39Z) - Efficient and Generic Interactive Segmentation Framework to Correct
Mispredictions during Clinical Evaluation of Medical Images [32.00559434186769]
我々はディープニューラルネットワーク(DNN)のための新しい条件推論手法を提案する。
他の方法とは異なり、我々の手法は複数の構造を同時に修正し、初期セグメンテーションで欠落した構造を追加することができる。
本手法は, 専門医の介入を最小限に抑えて, 診断・術後の経過観察に有用である。
論文 参考訳(メタデータ) (2021-08-06T08:06:18Z) - Matching the Clinical Reality: Accurate OCT-Based Diagnosis From Few
Labels [2.891413712995642]
ラベルのないデータはクリニックで多用されることが多く、半教師付き学習に基づく機械学習手法がこの設定に適している。
最近提案されたMixMatchアルゴリズムとFixMatchアルゴリズムは有用な表現を抽出する有望な結果を証明している。
いずれのアルゴリズムも、ラベル付きデータの全ての部分において、転送学習ベースラインを上回ります。
論文 参考訳(メタデータ) (2020-10-23T11:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。