論文の概要: Global Explanation of Tree-Ensembles Models Based on Item Response
Theory
- arxiv url: http://arxiv.org/abs/2210.09933v1
- Date: Tue, 18 Oct 2022 15:30:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 15:32:51.757293
- Title: Global Explanation of Tree-Ensembles Models Based on Item Response
Theory
- Title(参考訳): 項目応答理論に基づく木組モデルの大域的説明
- Authors: Jos\'e Ribeiro, Lucas Cardoso, Ra\'issa Silva, Vitor Cirilo, N\'ikolas
Carneiro and Ronnie Alves
- Abstract要約: 本研究は,項目応答理論-eXirtに基づく説明可能な尺度を提案する。
Xirtはアイテム応答理論(IRT)の特性を用いてツリーアンサンブルモデルを説明することができる
- 参考スコア(独自算出の注目度): 0.8808021343665321
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence - XAI is aimed at studying and developing
techniques to explain black box models, that is, models that provide limited
self-explanation of their predictions. In recent years, XAI researchers have
been formalizing proposals and developing new measures to explain how these
models make specific predictions. In previous studies, evidence has been found
on how model (dataset and algorithm) complexity affects global explanations
generated by XAI measures Ciu, Dalex, Eli5, Lofo, Shap and Skater, suggesting
that there is room for the development of a new XAI measure that builds on the
complexity of the model. Thus, this research proposes a measure called
Explainable based on Item Response Theory - eXirt, which is capable of
explaining tree-ensemble models by using the properties of Item Response Theory
(IRT). For this purpose, a benchmark was created using 40 different datasets
and 2 different algorithms (Random Forest and Gradient Boosting), thus
generating 6 different explainability ranks using known XAI measures along with
1 data purity rank and 1 rank of the measure eXirt, amounting to 8 global ranks
for each model, i.e., 640 ranks altogether. The results show that eXirt
displayed different ranks than those of the other measures, which demonstrates
that the advocated methodology generates global explanations of tree-ensemble
models that have not yet been explored, either for the more difficult models to
explain or even the easier ones.
- Abstract(参考訳): 説明可能な人工知能 - XAIはブラックボックスモデル、すなわち予測の限定的な自己説明を提供するモデルを研究・開発することを目的としている。
近年、XAI研究者は、これらのモデルがどのように特定の予測を行うかを説明するため、提案を形式化し、新しい尺度を策定している。
これまでの研究では、モデル(データセットとアルゴリズム)の複雑さが、XAI測度Ciu、Dalex、Eli5、Lofo、Shap、Skaterのグローバルな説明にどのように影響するかという証拠が見つかっており、モデルの複雑さを基盤とする新しいXAI測度を開発する余地があることが示唆されている。
そこで本研究では,アイテム応答理論(IRT)の特性を用いて,ツリーアンサンブルモデルの説明が可能なeXirtという項目応答理論に基づく説明可能な尺度を提案する。
この目的のために、40の異なるデータセットと2つの異なるアルゴリズム(ランサムフォレストとグラディエントブースティング)を使用してベンチマークが作成され、既知のXAI測度と測定eXirtの1つのデータ純度ランクと1つのランクで6つの異なる説明可能性ランクを生成した。
以上の結果から,exirtは他の手法と異なるランクを示しており,提案手法は,より説明が難しいモデルや簡単なモデルに対して,未検討のツリーセンブルモデルのグローバルな説明を生成できることが示されている。
関連論文リスト
- Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Commentary on explainable artificial intelligence methods: SHAP and LIME [7.104895625811305]
本稿では、広く使われている2つのXAI手法の説明可能性指標について論じる。
本稿では,その弱点と強みを浮き彫りにして,その成果を解釈するための枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-03T10:04:46Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Local Interpretable Model Agnostic Shap Explanations for machine
learning models [0.0]
局所解釈可能なモデル非依存型シェイプ説明法(LIMASE)を提案する。
提案手法は, LIMEパラダイムの下でシェープリー値を用いて, 局所的忠実かつ解釈可能な決定木モデルを用いて, シェープリー値を計算し, 視覚的に解釈可能な説明を行うことにより, 任意のモデルの予測を行う。
論文 参考訳(メタデータ) (2022-10-10T10:07:27Z) - Explanation-by-Example Based on Item Response Theory [0.0]
本研究は, 項目応答理論(IRT)を, モデルを説明し, 説明による信頼性のレベルを測定するためのツールとして検討する。
テストセットからすると、83.8%のエラーはIRTがモデルを信頼できないと指摘しているインスタンスからのものである。
論文 参考訳(メタデータ) (2022-10-04T14:36:33Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - GLIME: A new graphical methodology for interpretable model-agnostic
explanations [0.0]
本稿では,ブラックボックスモデルのための新しいグラフィカルな説明可能性ツールの開発に寄与する。
gLIMEと呼ばれる提案されたXAI方法論は、グローバル(データセット全体)またはローカルスケール(特定のデータポイント)でグラフィカルなモデルに依存しない説明を提供する。
論文 参考訳(メタデータ) (2021-07-21T08:06:40Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Accurate and Intuitive Contextual Explanations using Linear Model Trees [0.0]
ローカルなポストホックモデル説明が広く採用されている。
技術手法の現状は、初歩的な手法を用いて説明すべき点の周囲に合成データを生成する。
我々は、合成データ生成にジェネレーティブ・アドバイサル・ネットワークを使用し、線形モデルツリーの形で断片的な線形モデルを訓練する。
論文 参考訳(メタデータ) (2020-09-11T10:13:12Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。