論文の概要: Towards Trustable Skin Cancer Diagnosis via Rewriting Model's Decision
- arxiv url: http://arxiv.org/abs/2303.00885v1
- Date: Thu, 2 Mar 2023 01:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 16:37:53.264649
- Title: Towards Trustable Skin Cancer Diagnosis via Rewriting Model's Decision
- Title(参考訳): 転写モデルによる皮膚癌診断の信頼性向上に向けて
- Authors: Siyuan Yan, Zhen Yu, Xuelin Zhang, Dwarikanath Mahapatra, Shekhar S.
Chandra, Monika Janda, Peter Soyer, Zongyuan Ge
- Abstract要約: 本稿では,モデルトレーニングプロセスにHuman-in-the-loopフレームワークを導入する。
提案手法は, 共起因子を自動的に検出する。
容易に得られる概念の模範を用いて、相反する概念を学習することができる。
- 参考スコア(独自算出の注目度): 12.306688233127312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have demonstrated promising performance on image
recognition tasks. However, they may heavily rely on confounding factors, using
irrelevant artifacts or bias within the dataset as the cue to improve
performance. When a model performs decision-making based on these spurious
correlations, it can become untrustable and lead to catastrophic outcomes when
deployed in the real-world scene. In this paper, we explore and try to solve
this problem in the context of skin cancer diagnosis. We introduce a
human-in-the-loop framework in the model training process such that users can
observe and correct the model's decision logic when confounding behaviors
happen. Specifically, our method can automatically discover confounding factors
by analyzing the co-occurrence behavior of the samples. It is capable of
learning confounding concepts using easily obtained concept exemplars. By
mapping the black-box model's feature representation onto an explainable
concept space, human users can interpret the concept and intervene via first
order-logic instruction. We systematically evaluate our method on our newly
crafted, well-controlled skin lesion dataset and several public skin lesion
datasets. Experiments show that our method can effectively detect and remove
confounding factors from datasets without any prior knowledge about the
category distribution and does not require fully annotated concept labels. We
also show that our method enables the model to focus on clinical-related
concepts, improving the model's performance and trustworthiness during model
inference.
- Abstract(参考訳): ディープニューラルネットワークは、画像認識タスクで有望なパフォーマンスを示している。
しかしながら、データセット内の無関係なアーティファクトやバイアスを、パフォーマンス向上の手がかりとして使用することで、統合要因に大きく依存する可能性がある。
モデルがこれらのスプリアス相関に基づいて意思決定を行うと、信頼できなくなり、現実世界のシーンにデプロイされると壊滅的な結果をもたらす可能性がある。
本稿では,皮膚癌診断の文脈でこの問題を探求し,解決しようとする。
本稿では,モデル学習プロセスにヒューマン・イン・ザ・ループ・フレームワークを導入し,ユーザによるモデル決定ロジックの観察と修正を行う。
具体的には,試料の共起挙動を解析することにより,生成因子を自動的に検出する。
簡単に得られる概念例を用いて概念を学習することができる。
ブラックボックスモデルの特徴表現を説明可能な概念空間にマッピングすることで、ユーザはその概念を解釈し、最初の順序論理的命令を通して介入することができる。
提案手法は,新規に作製した皮膚病変データセットといくつかの公衆皮膚病変データセットを用いて体系的に評価した。
実験により,本手法は,カテゴリ分布に関する事前知識を必要とせずに,データセットからの共起因子を効果的に検出・除去できることを示す。
また,本手法は臨床概念に焦点を合わせ,モデル推論時のモデルの性能と信頼性を向上させることを可能にする。
関連論文リスト
- An analysis of data variation and bias in image-based dermatological datasets for machine learning classification [2.039829968340841]
臨床皮膚学では、分類モデルはRGB画像のみを入力として、患者の皮膚の悪性病変を検出することができる。
学習に基づくほとんどの手法では、トレーニングにおいて皮膚科のデータセットから取得したデータを用いており、これは金の基準によって大きく検証されている。
本研究の目的は,皮膚内視鏡検査と臨床検査のギャップを評価し,データセットの変動がトレーニングに与える影響を理解することである。
論文 参考訳(メタデータ) (2025-01-15T17:18:46Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Inverse decision-making using neural amortized Bayesian actors [19.128377007314317]
我々は、教師なしの方法で幅広いパラメータ設定で訓練されたニューラルネットワークを用いてベイズアクターを記憶する。
本稿では,本手法がモデル比較の原理と,先行とコストの識別不能につながる要因を解消するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2024-09-04T10:31:35Z) - Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery [6.1521675665532545]
医用画像では、AIモデルの予測の背後にある根拠を明らかにすることが、信頼性を評価する上で重要である。
本稿では,意思決定推論と特徴識別機能を備えた説明可能なモデルを提案する。
提案手法を実装することにより,データ駆動モデルにより活用されるクラス固有の特徴を効果的に識別および可視化することができる。
論文 参考訳(メタデータ) (2024-05-23T19:00:38Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。