論文の概要: Quantifying Explainability in NLP and Analyzing Algorithms for
Performance-Explainability Tradeoff
- arxiv url: http://arxiv.org/abs/2107.05693v1
- Date: Mon, 12 Jul 2021 19:07:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 03:04:06.745725
- Title: Quantifying Explainability in NLP and Analyzing Algorithms for
Performance-Explainability Tradeoff
- Title(参考訳): nlpにおける説明可能性の定量化と性能説明可能性トレードオフの解析アルゴリズム
- Authors: Mitchell Naylor, Christi French, Samantha Terker, Uday Kamath
- Abstract要約: 臨床テキスト分類におけるケーススタディにおける説明可能性と解釈可能性の現状について考察する。
完全解釈可能な手法とモデルに依存しないポストホック属性に対する様々な可視化手法を実証する。
我々は,モデルの予測性能と利用可能な説明の質との間のフロンティアを,実践者や研究者が評価できる枠組みを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The healthcare domain is one of the most exciting application areas for
machine learning, but a lack of model transparency contributes to a lag in
adoption within the industry. In this work, we explore the current art of
explainability and interpretability within a case study in clinical text
classification, using a task of mortality prediction within MIMIC-III clinical
notes. We demonstrate various visualization techniques for fully interpretable
methods as well as model-agnostic post hoc attributions, and we provide a
generalized method for evaluating the quality of explanations using infidelity
and local Lipschitz across model types from logistic regression to BERT
variants. With these metrics, we introduce a framework through which
practitioners and researchers can assess the frontier between a model's
predictive performance and the quality of its available explanations. We make
our code available to encourage continued refinement of these methods.
- Abstract(参考訳): 医療分野は機械学習の最もエキサイティングな応用分野の1つだが、モデルの透明性の欠如は、業界内での採用の遅れに寄与している。
本研究は,MIMIC-III 臨床ノートにおける死亡予測タスクを用いて,臨床テキスト分類におけるケーススタディにおける説明可能性と解釈可能性の現状について検討する。
完全解釈可能な手法とモデル非依存なポストホック帰属に対する様々な可視化手法を実証し,ロジスティック回帰からbert変種へのモデルタイプ間の不確かさと局所リプシッツを用いた説明の品質評価法を提案する。
これらの指標を用いて,実践者や研究者がモデルの予測性能と利用可能な説明の質の間のフロンティアを評価できる枠組みを提案する。
私たちはこれらの手法の継続的な改良を奨励するためにコードを利用可能にしています。
関連論文リスト
- Methodological Explainability Evaluation of an Interpretable Deep Learning Model for Post-Hepatectomy Liver Failure Prediction Incorporating Counterfactual Explanations and Layerwise Relevance Propagation: A Prospective In Silico Trial [13.171582596404313]
術前PHLF予測のための可変オートエンコーダ-多層パーセプトロン (VAE-MLP) モデルを開発した。
このモデルは、その意思決定メカニズムに関する洞察を提供するために、カウンターファクトアルとレイヤワイズ関連伝播(LRP)を統合した。
サイリコ臨床試験の3トラックの結果、AIの説明が提供されると、臨床医の予測精度と信頼性が向上した。
論文 参考訳(メタデータ) (2024-08-07T13:47:32Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - SHAMSUL: Systematic Holistic Analysis to investigate Medical
Significance Utilizing Local interpretability methods in deep learning for
chest radiography pathology prediction [1.0138723409205497]
局所的解釈可能なモデル非依存説明法(LIME)、共有付加的説明法(SHAP)、グラディエント重み付きクラス活性化マッピング(Grad-CAM)、レイヤワイド関連伝搬法(LRP)の4つの方法の適用について検討した。
本分析では, 単一ラベルと多ラベルの予測を両方含み, 定量的, 定性的な調査を通じて包括的かつ不偏な評価を行い, 人的専門家のアノテーションと比較した。
論文 参考訳(メタデータ) (2023-07-16T11:10:35Z) - Investigating Poor Performance Regions of Black Boxes: LIME-based
Exploration in Sepsis Detection [0.5872014229110214]
本稿では,局部解釈可能なモデル非依存記述(LIME)を活用し,セプシス検出におけるブラックボックス分類モデルの解釈可能な記述を提供する。
誤分類されたインスタンスを分析することで、最適以下のパフォーマンスに寄与する重要な特徴が特定される。
論文 参考訳(メタデータ) (2023-06-21T18:36:15Z) - Learning disentangled representations for explainable chest X-ray
classification using Dirichlet VAEs [68.73427163074015]
本研究では,胸部X線像の非絡み合った潜在表現の学習にDirVAE(Dirichlet Variational Autoencoder)を用いることを検討した。
DirVAEモデルにより学習された多モード潜在表現の予測能力について,補助的多ラベル分類タスクの実装により検討した。
論文 参考訳(メタデータ) (2023-02-06T18:10:08Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models [0.0]
臨床医はしばしば自動画像処理アプローチ、特にディープラーニングに基づく手法の適用に懐疑的である。
本稿では,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を記述することによって,ディープラーニングアルゴリズムの結果の解釈と説明を支援するアプローチを提案する。
ディープラーニングモデルに様々な解釈可能性および説明可能性技術を適用するための統合フレームワークであるTorchEsegetaを提案する。
論文 参考訳(メタデータ) (2021-10-16T01:00:15Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。