論文の概要: Global Explanation of Tree-Ensembles Models Based on Item Response
Theory
- arxiv url: http://arxiv.org/abs/2210.09933v1
- Date: Tue, 18 Oct 2022 15:30:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 15:32:51.757293
- Title: Global Explanation of Tree-Ensembles Models Based on Item Response
Theory
- Title(参考訳): 項目応答理論に基づく木組モデルの大域的説明
- Authors: Jos\'e Ribeiro, Lucas Cardoso, Ra\'issa Silva, Vitor Cirilo, N\'ikolas
Carneiro and Ronnie Alves
- Abstract要約: 本研究は,項目応答理論-eXirtに基づく説明可能な尺度を提案する。
Xirtはアイテム応答理論(IRT)の特性を用いてツリーアンサンブルモデルを説明することができる
- 参考スコア(独自算出の注目度): 0.8808021343665321
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence - XAI is aimed at studying and developing
techniques to explain black box models, that is, models that provide limited
self-explanation of their predictions. In recent years, XAI researchers have
been formalizing proposals and developing new measures to explain how these
models make specific predictions. In previous studies, evidence has been found
on how model (dataset and algorithm) complexity affects global explanations
generated by XAI measures Ciu, Dalex, Eli5, Lofo, Shap and Skater, suggesting
that there is room for the development of a new XAI measure that builds on the
complexity of the model. Thus, this research proposes a measure called
Explainable based on Item Response Theory - eXirt, which is capable of
explaining tree-ensemble models by using the properties of Item Response Theory
(IRT). For this purpose, a benchmark was created using 40 different datasets
and 2 different algorithms (Random Forest and Gradient Boosting), thus
generating 6 different explainability ranks using known XAI measures along with
1 data purity rank and 1 rank of the measure eXirt, amounting to 8 global ranks
for each model, i.e., 640 ranks altogether. The results show that eXirt
displayed different ranks than those of the other measures, which demonstrates
that the advocated methodology generates global explanations of tree-ensemble
models that have not yet been explored, either for the more difficult models to
explain or even the easier ones.
- Abstract(参考訳): 説明可能な人工知能 - XAIはブラックボックスモデル、すなわち予測の限定的な自己説明を提供するモデルを研究・開発することを目的としている。
近年、XAI研究者は、これらのモデルがどのように特定の予測を行うかを説明するため、提案を形式化し、新しい尺度を策定している。
これまでの研究では、モデル(データセットとアルゴリズム)の複雑さが、XAI測度Ciu、Dalex、Eli5、Lofo、Shap、Skaterのグローバルな説明にどのように影響するかという証拠が見つかっており、モデルの複雑さを基盤とする新しいXAI測度を開発する余地があることが示唆されている。
そこで本研究では,アイテム応答理論(IRT)の特性を用いて,ツリーアンサンブルモデルの説明が可能なeXirtという項目応答理論に基づく説明可能な尺度を提案する。
この目的のために、40の異なるデータセットと2つの異なるアルゴリズム(ランサムフォレストとグラディエントブースティング)を使用してベンチマークが作成され、既知のXAI測度と測定eXirtの1つのデータ純度ランクと1つのランクで6つの異なる説明可能性ランクを生成した。
以上の結果から,exirtは他の手法と異なるランクを示しており,提案手法は,より説明が難しいモデルや簡単なモデルに対して,未検討のツリーセンブルモデルのグローバルな説明を生成できることが示されている。
関連論文リスト
- Towards consistency of rule-based explainer and black box model -- fusion of rule induction and XAI-based feature importance [0.0]
ルールベースのモデルは、人間の理解可能な表現、すなわち解釈可能な表現を提供する。
このような説明の生成には、ルールベースモデルによるブラックボックスモデルの近似が含まれる。
ルールベースモデルが近似したブラックボックスモデルと同じ方法で決定を行うかどうかは、まだ調査されていない。
論文 参考訳(メタデータ) (2024-07-16T07:56:29Z) - How Reliable and Stable are Explanations of XAI Methods? [0.4749981032986242]
ブラックボックスモデルは、社会の中で生活している人間の日常生活にますます使われている。
XAI(Explainable Artificial Intelligence)メソッドが登場し、モデルが特定の予測を行う方法に関するさらなる説明が生まれている。
その結果、現在のXAI法は1つの特定の方法を除いて摂動に敏感であることが判明した。
論文 参考訳(メタデータ) (2024-07-03T13:47:41Z) - Reasoning with trees: interpreting CNNs using hierarchies [3.6763102409647526]
畳み込みニューラルネットワーク(CNN)の忠実かつ解釈可能な説明に階層的セグメンテーション技術を用いるフレームワークを導入する。
本手法はモデルの推論忠実性を維持するモデルに基づく階層的セグメンテーションを構築する。
実験により、我々のフレームワークであるxAiTreesが高度に解釈可能で忠実なモデル説明を提供することが示された。
論文 参考訳(メタデータ) (2024-06-19T06:45:19Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Local Interpretable Model Agnostic Shap Explanations for machine
learning models [0.0]
局所解釈可能なモデル非依存型シェイプ説明法(LIMASE)を提案する。
提案手法は, LIMEパラダイムの下でシェープリー値を用いて, 局所的忠実かつ解釈可能な決定木モデルを用いて, シェープリー値を計算し, 視覚的に解釈可能な説明を行うことにより, 任意のモデルの予測を行う。
論文 参考訳(メタデータ) (2022-10-10T10:07:27Z) - Explanation-by-Example Based on Item Response Theory [0.0]
本研究は, 項目応答理論(IRT)を, モデルを説明し, 説明による信頼性のレベルを測定するためのツールとして検討する。
テストセットからすると、83.8%のエラーはIRTがモデルを信頼できないと指摘しているインスタンスからのものである。
論文 参考訳(メタデータ) (2022-10-04T14:36:33Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。