論文の概要: Explainable Deep Modeling of Tabular Data using TableGraphNet
- arxiv url: http://arxiv.org/abs/2002.05205v1
- Date: Wed, 12 Feb 2020 20:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 19:01:37.851956
- Title: Explainable Deep Modeling of Tabular Data using TableGraphNet
- Title(参考訳): tablegraphnetを用いた表データの説明可能な深層モデリング
- Authors: Gabriel Terejanu, Jawad Chowdhury, Rezaur Rashid, Asif Chowdhury
- Abstract要約: 付加的特徴属性の形で説明可能な予測を生成する新しいアーキテクチャを提案する。
説明可能なモデルはブラックボックスモデルと同じレベルの性能が得られることを示す。
- 参考スコア(独自算出の注目度): 1.376408511310322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vast majority of research on explainability focuses on
post-explainability rather than explainable modeling. Namely, an explanation
model is derived to explain a complex black box model built with the sole
purpose of achieving the highest performance possible. In part, this trend
might be driven by the misconception that there is a trade-off between
explainability and accuracy. Furthermore, the consequential work on Shapely
values, grounded in game theory, has also contributed to a new wave of
post-explainability research on better approximations for various machine
learning models, including deep learning models. We propose a new architecture
that inherently produces explainable predictions in the form of additive
feature attributions. Our approach learns a graph representation for each
record in the dataset. Attribute centric features are then derived from the
graph and fed into a contribution deep set model to produce the final
predictions. We show that our explainable model attains the same level of
performance as black box models. Finally, we provide an augmented model
training approach that leverages the missingness property and yields high
levels of consistency (as required for the Shapely values) without loss of
accuracy.
- Abstract(参考訳): 説明可能性に関するほとんどの研究は、説明可能なモデリングではなく、説明可能性に焦点を当てている。
すなわち、可能な限り高い性能を達成するためだけに作られた複雑なブラックボックスモデルを説明するために、説明モデルが導出される。
この傾向は、説明可能性と正確さの間にトレードオフがあるという誤解が原因かもしれない。
さらに、ゲーム理論に基づくシェイプリー値に関する一連の研究は、ディープラーニングモデルを含む様々な機械学習モデルに対するより良い近似に関する説明後研究の新たな波にも貢献している。
付加的特徴属性の形で説明可能な予測を本質的に生成する新しいアーキテクチャを提案する。
提案手法はデータセットの各レコードのグラフ表現を学習する。
属性中心の特徴はグラフから導出され、最終的な予測を生成するためにコントリビューションディープセットモデルに入力される。
説明可能なモデルはブラックボックスモデルと同じレベルの性能が得られることを示す。
最後に,不確かさを生かし,精度を損なうことなく高レベルの一貫性(形状値に要求されるような)が得られるモデルトレーニング手法を提案する。
関連論文リスト
- Relational Learning in Pre-Trained Models: A Theory from Hypergraph Recovery Perspective [60.64922606733441]
我々は,関係学習をハイパーグラフリカバリとして形式化する数学的モデルを導入し,基礎モデル(FM)の事前学習について検討する。
我々のフレームワークでは、世界はハイパーグラフとして表現され、データはハイパーエッジからランダムなサンプルとして抽象化される。我々は、このハイパーグラフを復元するための事前学習モデル(PTM)の有効性を理論的に検証し、ミニマックスに近い最適スタイルでデータ効率を解析する。
論文 参考訳(メタデータ) (2024-06-17T06:20:39Z) - Exploring the Trade-off Between Model Performance and Explanation Plausibility of Text Classifiers Using Human Rationales [3.242050660144211]
ホック後説明可能性法は、ますます複雑なNLPモデルを理解するための重要なツールである。
本稿では,人間の判断を説明するテキストアノテーションをテキスト分類モデルに組み込む手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T22:39:33Z) - On the Foundations of Shortcut Learning [20.53986437152018]
予測と可用性が形状モデルの特徴的利用とどのように相互作用するかを考察する。
線形モデルは比較的偏りがないが、ReLUやTanhの単位を持つ単一の隠蔽層を導入するとバイアスが生じる。
論文 参考訳(メタデータ) (2023-10-24T22:54:05Z) - Globally Interpretable Graph Learning via Distribution Matching [12.885580925389352]
我々は、まだ十分に研究されていない重要な質問に答えることを目指している。グラフ学習手順のグローバルな解釈を提供するには、どうすればよいのか?
我々は,この問題を,学習過程を支配する高レベルかつ人間の知能なパターンを蒸留することを目的とした,グローバルな解釈可能なグラフ学習として定式化する。
本稿では,解釈に基づいて学習したモデルの忠実度を評価するために,新しいモデル忠実度尺度を提案する。
論文 参考訳(メタデータ) (2023-06-18T00:50:36Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - A Detailed Study of Interpretability of Deep Neural Network based Top
Taggers [3.8541104292281805]
説明可能なAI(XAI)の最近の進歩により、研究者はディープニューラルネットワーク(DNN)の内部動作を探索できる。
大型ハドロン衝突型加速器(LHC)における高エネルギー陽子-陽子衝突におけるトップクォーク崩壊からのジェットの解釈可能性について検討する。
本研究は,既存のXAI手法の大きな落とし穴を明らかにし,これらのモデルの一貫性と意味のある解釈をいかに克服できるかを説明する。
論文 参考訳(メタデータ) (2022-10-09T23:02:42Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。