論文の概要: Improving Explainability of Image Classification in Scenarios with Class
Overlap: Application to COVID-19 and Pneumonia
- arxiv url: http://arxiv.org/abs/2008.02866v3
- Date: Sun, 16 Aug 2020 01:33:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:01:38.257112
- Title: Improving Explainability of Image Classification in Scenarios with Class
Overlap: Application to COVID-19 and Pneumonia
- Title(参考訳): クラスオーバーのシナリオにおける画像分類の説明可能性の向上 : COVID-19および肺炎への応用
- Authors: Edward Verenich, Alvaro Velasquez, Nazar Khan and Faraz Hussain
- Abstract要約: 機械学習モデルによる予測の信頼度は、以前に見つからなかったサンプルに対してモデルがうまく一般化した場合に増大する。
本稿では,クラス重複によるモデルの不確実性を緩和し,画像分類の局所性を向上させる手法を提案する。
我々の手法は、新型コロナウイルスや肺炎などの実世界の重複シナリオにおいて特に有望であり、専門的にラベル付けされたローカライゼーションのためのデータが手軽に利用できない。
- 参考スコア(独自算出の注目度): 7.372797734096181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trust in predictions made by machine learning models is increased if the
model generalizes well on previously unseen samples and when inference is
accompanied by cogent explanations of the reasoning behind predictions. In the
image classification domain, generalization can be assessed through accuracy,
sensitivity, and specificity. Explainability can be assessed by how well the
model localizes the object of interest within an image. However, both
generalization and explainability through localization are degraded in
scenarios with significant overlap between classes. We propose a method based
on binary expert networks that enhances the explainability of image
classifications through better localization by mitigating the model uncertainty
induced by class overlap. Our technique performs discriminative localization on
images that contain features with significant class overlap, without explicitly
training for localization. Our method is particularly promising in real-world
class overlap scenarios, such as COVID-19 and pneumonia, where expertly labeled
data for localization is not readily available. This can be useful for early,
rapid, and trustworthy screening for COVID-19.
- Abstract(参考訳): 機械学習モデルによってなされる予測に対する信頼度は、モデルが未発見のサンプルをうまく一般化し、推論が予測の背後にある推論の簡潔な説明を伴う場合に増大する。
画像分類領域では、精度、感度、特異性によって一般化を評価することができる。
説明可能性は、モデルがいかにイメージ内の関心対象をローカライズするかによって評価できる。
しかしながら、一般化とローカライズによる説明可能性の両方が、クラス間で著しく重複するシナリオで低下する。
本稿では,クラス重なりによるモデルの不確かさを緩和し,より適切な局所化により画像分類の可解性を高めるバイナリエキスパートネットワークに基づく手法を提案する。
本手法は,クラス重なりのある特徴を含む画像に対して,局所化を明示的に訓練することなく識別的ローカライゼーションを行う。
この手法は、新型コロナウイルスや肺炎などの現実世界の重なり合いシナリオにおいて特に有望であり、専門的にラベル付けされたローカライズデータの入手が容易ではない。
これは、covid-19の早期、迅速、信頼性の高いスクリーニングに有用である。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals [4.384272169863716]
高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
論文 参考訳(メタデータ) (2024-06-08T13:52:02Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Text-to-Image Diffusion Models are Zero-Shot Classifiers [8.26990105697146]
ゼロショット分類器として評価する手法を提案し,テキスト・画像拡散モデルについて検討した。
本手法を安定拡散およびイメージnに適用し,モデル知識のきめ細かい面を探索する。
彼らは幅広いゼロショット画像分類データセットでCLIPと競合する。
論文 参考訳(メタデータ) (2023-03-27T14:15:17Z) - Inherently Interpretable Multi-Label Classification Using Class-Specific
Counterfactuals [9.485195366036292]
医療画像解析などの高度な応用分野における機械学習アルゴリズムの解釈性は不可欠である。
マルチラベル分類のための本質的に解釈可能なモデルであるAttri-Netを提案する。
Attri-Netは,臨床知識と整合した高品質なマルチラベル説明を生成する。
論文 参考訳(メタデータ) (2023-03-01T13:32:55Z) - Learning disentangled representations for explainable chest X-ray
classification using Dirichlet VAEs [68.73427163074015]
本研究では,胸部X線像の非絡み合った潜在表現の学習にDirVAE(Dirichlet Variational Autoencoder)を用いることを検討した。
DirVAEモデルにより学習された多モード潜在表現の予測能力について,補助的多ラベル分類タスクの実装により検討した。
論文 参考訳(メタデータ) (2023-02-06T18:10:08Z) - Sampling Based On Natural Image Statistics Improves Local Surrogate
Explainers [111.31448606885672]
代理説明器は、モデルが予測にどのように到着するかをさらに理解するために、ポストホック解釈法として人気がある。
そこで本研究では,(1)局所領域のサンプリング方法を変更すること,(2)自然画像の分布特性を知覚的指標を用いて伝達すること,の2つの手法を提案する。
論文 参考訳(メタデータ) (2022-08-08T08:10:13Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。