論文の概要: Towards Trustable Skin Cancer Diagnosis via Rewriting Model's Decision
- arxiv url: http://arxiv.org/abs/2303.00885v1
- Date: Thu, 2 Mar 2023 01:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 16:37:53.264649
- Title: Towards Trustable Skin Cancer Diagnosis via Rewriting Model's Decision
- Title(参考訳): 転写モデルによる皮膚癌診断の信頼性向上に向けて
- Authors: Siyuan Yan, Zhen Yu, Xuelin Zhang, Dwarikanath Mahapatra, Shekhar S.
Chandra, Monika Janda, Peter Soyer, Zongyuan Ge
- Abstract要約: 本稿では,モデルトレーニングプロセスにHuman-in-the-loopフレームワークを導入する。
提案手法は, 共起因子を自動的に検出する。
容易に得られる概念の模範を用いて、相反する概念を学習することができる。
- 参考スコア(独自算出の注目度): 12.306688233127312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have demonstrated promising performance on image
recognition tasks. However, they may heavily rely on confounding factors, using
irrelevant artifacts or bias within the dataset as the cue to improve
performance. When a model performs decision-making based on these spurious
correlations, it can become untrustable and lead to catastrophic outcomes when
deployed in the real-world scene. In this paper, we explore and try to solve
this problem in the context of skin cancer diagnosis. We introduce a
human-in-the-loop framework in the model training process such that users can
observe and correct the model's decision logic when confounding behaviors
happen. Specifically, our method can automatically discover confounding factors
by analyzing the co-occurrence behavior of the samples. It is capable of
learning confounding concepts using easily obtained concept exemplars. By
mapping the black-box model's feature representation onto an explainable
concept space, human users can interpret the concept and intervene via first
order-logic instruction. We systematically evaluate our method on our newly
crafted, well-controlled skin lesion dataset and several public skin lesion
datasets. Experiments show that our method can effectively detect and remove
confounding factors from datasets without any prior knowledge about the
category distribution and does not require fully annotated concept labels. We
also show that our method enables the model to focus on clinical-related
concepts, improving the model's performance and trustworthiness during model
inference.
- Abstract(参考訳): ディープニューラルネットワークは、画像認識タスクで有望なパフォーマンスを示している。
しかしながら、データセット内の無関係なアーティファクトやバイアスを、パフォーマンス向上の手がかりとして使用することで、統合要因に大きく依存する可能性がある。
モデルがこれらのスプリアス相関に基づいて意思決定を行うと、信頼できなくなり、現実世界のシーンにデプロイされると壊滅的な結果をもたらす可能性がある。
本稿では,皮膚癌診断の文脈でこの問題を探求し,解決しようとする。
本稿では,モデル学習プロセスにヒューマン・イン・ザ・ループ・フレームワークを導入し,ユーザによるモデル決定ロジックの観察と修正を行う。
具体的には,試料の共起挙動を解析することにより,生成因子を自動的に検出する。
簡単に得られる概念例を用いて概念を学習することができる。
ブラックボックスモデルの特徴表現を説明可能な概念空間にマッピングすることで、ユーザはその概念を解釈し、最初の順序論理的命令を通して介入することができる。
提案手法は,新規に作製した皮膚病変データセットといくつかの公衆皮膚病変データセットを用いて体系的に評価した。
実験により,本手法は,カテゴリ分布に関する事前知識を必要とせずに,データセットからの共起因子を効果的に検出・除去できることを示す。
また,本手法は臨床概念に焦点を合わせ,モデル推論時のモデルの性能と信頼性を向上させることを可能にする。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery [6.1521675665532545]
医用画像では、AIモデルの予測の背後にある根拠を明らかにすることが、信頼性を評価する上で重要である。
本稿では,意思決定推論と特徴識別機能を備えた説明可能なモデルを提案する。
提案手法を実装することにより,データ駆動モデルにより活用されるクラス固有の特徴を効果的に識別および可視化することができる。
論文 参考訳(メタデータ) (2024-05-23T19:00:38Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。