論文の概要: Topological Interpretability for Deep-Learning
- arxiv url: http://arxiv.org/abs/2305.08642v1
- Date: Mon, 15 May 2023 13:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 14:25:57.953124
- Title: Topological Interpretability for Deep-Learning
- Title(参考訳): 深層学習におけるトポロジカル解釈可能性
- Authors: Adam Spannaus, Heidi A.Hanson, Lynne Penberthy, and Georgia Tourassi
- Abstract要約: ディープラーニング(DL)モデルは、予測の確実性を定量化できない。
本研究は,臨床および非臨床のテキストに基づいて訓練された2つのDL分類モデルにおいて,特徴を推測する手法を提案する。
- 参考スコア(独自算出の注目度): 0.2519906683279153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing adoption of AI-based systems across everyday life, the
need to understand their decision-making mechanisms is correspondingly
accelerating. The level at which we can trust the statistical inferences made
from AI-based decision systems is an increasing concern, especially in
high-risk systems such as criminal justice or medical diagnosis, where
incorrect inferences may have tragic consequences. Despite their successes in
providing solutions to problems involving real-world data, deep learning (DL)
models cannot quantify the certainty of their predictions. And are frequently
quite confident, even when their solutions are incorrect.
This work presents a method to infer prominent features in two DL
classification models trained on clinical and non-clinical text by employing
techniques from topological and geometric data analysis. We create a graph of a
model's prediction space and cluster the inputs into the graph's vertices by
the similarity of features and prediction statistics. We then extract subgraphs
demonstrating high-predictive accuracy for a given label. These subgraphs
contain a wealth of information about features that the DL model has recognized
as relevant to its decisions. We infer these features for a given label using a
distance metric between probability measures, and demonstrate the stability of
our method compared to the LIME interpretability method. This work demonstrates
that we may gain insights into the decision mechanism of a DL model, which
allows us to ascertain if the model is making its decisions based on
information germane to the problem or identifies extraneous patterns within the
data.
- Abstract(参考訳): 日常的にAIベースのシステムが普及するにつれ、意思決定メカニズムを理解する必要性が増している。
aiベースの意思決定システムから得られる統計的推論を信頼できるレベルは、特に刑事司法や医療診断のようなリスクの高いシステムでは、悲劇的な結果をもたらす可能性がある、という懸念が高まっている。
現実世界のデータに関わる問題に対する解決策を提供することに成功したにもかかわらず、ディープラーニング(DL)モデルは予測の確実性を定量化できない。
そして、ソリューションが間違っていても、しばしば非常に自信があります。
本研究は,2つのDL分類モデルにおいて,トポロジカルおよび幾何学的データ解析の手法を用いて臨床および非臨床テキストで訓練された特徴を推測する手法を提案する。
モデルの予測空間のグラフを作成し、特徴量と予測統計量の類似性により入力をグラフの頂点にクラスタ化する。
次に,与えられたラベルに対して高い予測精度を示す部分グラフを抽出する。
これらのサブグラフにはdlモデルが決定に関連すると認識した特徴に関する豊富な情報が含まれている。
これらの特徴を確率測度間の距離メトリックを用いて推算し, ライム解釈法と比較し, 提案手法の安定性を示す。
この研究は、dlモデルの決定メカニズムに関する洞察を得ることを実証するものであり、モデルが問題に関する情報に基づいて決定を行っているか、あるいはデータ内の余分なパターンを特定することができる。
関連論文リスト
- Counterfactual Explanations of Black-box Machine Learning Models using
Causal Discovery with Applications to Credit Rating [4.72063842046149]
いくつかのXAIモデルは、予測モデルのインプット・アウトプット関係と特徴間の依存関係を調べることによって、モデルを説明するために因果関係を考慮する。
これらのモデルの大半は、因果グラフが知られていると仮定して、反事実確率に基づく説明に基づいている。
本研究では、因果グラフが知られている制約を緩和する新しいXAIフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T02:26:24Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Explainable Machine Learning for Hydrocarbon Prospect Risking [14.221460375400692]
我々は、LIMEがドメイン知識に整合した意思決定プロセスを明らかにすることによって、モデルの決定に対する信頼をいかに引き起こすかを示す。
データやトレーニングデータセットの異常なパターンによる誤予測をデバッグする可能性がある。
論文 参考訳(メタデータ) (2022-12-15T00:38:14Z) - PCENet: High Dimensional Surrogate Modeling for Learning Uncertainty [15.781915567005251]
本稿では,表現学習と不確実性定量化のための新しい代理モデルを提案する。
提案モデルでは、(潜在的に高次元の)データの次元的低減のためのニューラルネットワークアプローチと、データ分布を学習するための代理モデル手法を組み合わせる。
我々のモデルは,データの表現を学習し,(a)高次元データシステムにおける不確実性を推定し,(c)出力分布の高次モーメントを一致させることができる。
論文 参考訳(メタデータ) (2022-02-10T14:42:51Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Causality and Generalizability: Identifiability and Learning Methods [0.0]
この論文は、因果効果の推定、因果構造学習、および分布的に堅牢な予測方法に関する研究領域に寄与する。
本稿では,データ依存平均二乗予測誤差正規化を用いた機器変数設定における線形・非線形因果関係推定器について述べる。
本稿では,介入誘起分布に関する分布ロバスト性に関する一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-10-04T13:12:11Z) - Incorporating Causal Graphical Prior Knowledge into Predictive Modeling
via Simple Data Augmentation [92.96204497841032]
因果グラフ(CG)は、データ分散の背後にあるデータ生成プロセスの知識のコンパクトな表現である。
本研究では,条件付き独立性(CI)関係の事前知識を活用可能なモデルに依存しないデータ拡張手法を提案する。
本手法は,小データシステムにおける予測精度の向上に有効であることを実験的に示した。
論文 参考訳(メタデータ) (2021-02-27T06:13:59Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [89.01584399789951]
歴史的専門家の意思決定を豊富な情報源として利用することを検討します。
観察されたラベルだけで学習する制限を緩和するために活用できることを示しています。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。