論文の概要: Gifsplanation via Latent Shift: A Simple Autoencoder Approach to
Progressive Exaggeration on Chest X-rays
- arxiv url: http://arxiv.org/abs/2102.09475v1
- Date: Thu, 18 Feb 2021 16:55:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-20 02:29:27.725569
- Title: Gifsplanation via Latent Shift: A Simple Autoencoder Approach to
Progressive Exaggeration on Chest X-rays
- Title(参考訳): Latent ShiftによるGifsplanation: 胸部X線における進行的誇張に対する単純なオートエンコーダアプローチ
- Authors: Joseph Paul Cohen, Rupert Brooks, Sovann En, Evan Zucker, Anuj Pareek,
Matthew P. Lungren, Akshay Chaudhari
- Abstract要約: 本稿では,入力画像の潜在表現を変換して,予測に使用する特徴を誇張あるいは縮小する,シンプルなオートエンコーダと更新(潜時シフト)を提案する。
本研究では, 従来のアトリビューションマップや提案手法を用いて, 240個の胸部X線予測を行い, どれが偽陽性か(半数)を判定する。
- 参考スコア(独自算出の注目度): 3.958317527488534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivation: Traditional image attribution methods struggle to satisfactorily
explain predictions of neural networks. Prediction explanation is important,
especially in the medical imaging, for avoiding the unintended consequences of
deploying AI systems when false positive predictions can impact patient care.
Thus, there is a pressing need to develop improved models for model
explainability and introspection.
Specific Problem: A new approach is to transform input images to increase or
decrease features which cause the prediction. However, current approaches are
difficult to implement as they are monolithic or rely on GANs. These hurdles
prevent wide adoption.
Our approach: Given an arbitrary classifier, we propose a simple autoencoder
and gradient update (Latent Shift) that can transform the latent representation
of an input image to exaggerate or curtail the features used for prediction. We
use this method to study chest X-ray classifiers and evaluate their
performance. We conduct a reader study with two radiologists assessing 240
chest X-ray predictions to identify which ones are false positives (half are)
using traditional attribution maps or our proposed method.
Results: We found low overlap with ground truth pathology masks for models
with reasonably high accuracy. However, the results from our reader study
indicate that these models are generally looking at the correct features. We
also found that the Latent Shift explanation allows a user to have more
confidence in true positive predictions compared to traditional approaches
(0.15$\pm$0.95 in a 5 point scale with p=0.01) with only a small increase in
false positive predictions (0.04$\pm$1.06 with p=0.57).
Accompanying webpage: https://mlmed.org/gifsplanation
Source code: https://github.com/mlmed/gifsplanation
- Abstract(参考訳): モチベーション: 従来のイメージアトリビューション手法は、ニューラルネットワークの予測を満足いく説明に苦しむ。
偽陽性予測が患者ケアに影響を与える可能性がある場合、AIシステムをデプロイする意図しない結果を避けるため、特に医療画像では予測説明が重要です。
したがって、モデル説明可能性とイントロスペクションの改善モデルを開発する必要がある。
特定の問題:新しいアプローチは予測を引き起こす特徴を高めるか、または減らすために入力イメージを変えることです。
しかし、モノリシックでGANに依存しているため、現在のアプローチの実装は困難です。
これらのハードルは広く採用されるのを防ぐ。
我々のアプローチ:任意の分類器が与えられた場合、入力画像の潜在表現を変換し、予測に使用する特徴を誇張または縮小する簡単なオートエンコーダと勾配更新(Latent Shift)を提案する。
この方法を用いて胸部x線分類器の研究を行い,その性能評価を行う。
本研究では, 従来のアトリビューションマップや提案手法を用いて, 240個の胸部X線予測を行い, どれが偽陽性か(半数)を判定する。
結果: 精度の高いモデルでは, 地上の真理病マスクとの重なりが低かった。
しかし、読者調査の結果から、これらのモデルが一般的に正しい機能に注目していることがわかる。
また, 潜伏シフトの説明により, 従来の手法に比べて正の予測に対する信頼度が低く(p=0.01), 偽の正の予測はわずかに増加した(p=0.57では0.04$\pm$1.06)。
https://mlmed.org/gifsplanation source code: https://github.com/mlmed/gifsplanation
関連論文リスト
- A Lightweight Generative Model for Interpretable Subject-level Prediction [0.07989135005592125]
本稿では,本質的に解釈可能な単一対象予測手法を提案する。
実験により、結果のモデルを効率よく逆転させ、正確な主観レベルの予測を行うことが示されている。
論文 参考訳(メタデータ) (2023-06-19T18:20:29Z) - Efficient remedies for outlier detection with variational autoencoders [8.80692072928023]
深層生成モデルによって計算される類似度は、ラベルなしデータによる外れ値検出の候補メトリックである。
理論的に定位された補正は、VAE推定値による鍵バイアスを容易に改善することを示す。
また,VAEのアンサンブル上で計算される確率の分散により,ロバストな外乱検出が可能となることを示す。
論文 参考訳(メタデータ) (2021-08-19T16:00:58Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Using StyleGAN for Visual Interpretability of Deep Learning Models on
Medical Images [0.7874708385247352]
画像上の任意のブラックボックスモデルの予測を理解するために使用できる新しい解釈可能性法を提案する。
StyleGANは医療画像に基づいて訓練され、潜伏ベクトルと画像のマッピングを提供する。
この方向に沿って入力画像の潜在表現をシフトさせることにより、予測が変化する一連の新しい合成画像を生成することができる。
論文 参考訳(メタデータ) (2021-01-19T11:13:20Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z) - RAIN: A Simple Approach for Robust and Accurate Image Classification
Networks [156.09526491791772]
既存の敵防衛手法の大部分は、予測精度を犠牲にして堅牢性を実現することが示されている。
本稿では,ロバストおよび高精度画像分類N(RAIN)と呼ぶ新しい前処理フレームワークを提案する。
RAINは入力に対してランダム化を適用して、モデルフォワード予測パスと後方勾配パスの関係を壊し、モデルロバスト性を改善する。
STL10 と ImageNet のデータセットを用いて、様々な種類の敵攻撃に対する RAIN の有効性を検証する。
論文 参考訳(メタデータ) (2020-04-24T02:03:56Z) - Overinterpretation reveals image classification model pathologies [15.950659318117694]
人気のあるベンチマーク上の畳み込みニューラルネットワーク(CNN)は、意味論的に健全な特徴がなくても高い精度を示すことができるような、厄介な病理を示す。
我々は、CIFAR-10とImageNetでトレーニングされたニューラルネットワークが過剰解釈に悩まされていることを実証した。
これらのパターンは、現実のデプロイメントにおける潜在的なモデルの脆弱性を補うものだが、実際には、ベンチマークの統計的パターンとして、高いテスト精度を達成するのに十分である。
論文 参考訳(メタデータ) (2020-03-19T17:12:23Z) - CNN-CASS: CNN for Classification of Coronary Artery Stenosis Score in
MPR Images [0.0]
MPR画像における狭窄の重症度を同定する自動モデルを開発した。
このモデルは3つのクラスのうちの1つを予測している: 正常の'no stenosis'、検出された'non-significant' - 1-50%の狭窄、'significant' - 50%以上の狭窄。
狭窄スコア分類では, 従来の検査結果と比較して, 80%の精度で精度が向上した。
論文 参考訳(メタデータ) (2020-01-23T15:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。