論文の概要: Implementing local-explainability in Gradient Boosting Trees: Feature
Contribution
- arxiv url: http://arxiv.org/abs/2402.09197v1
- Date: Wed, 14 Feb 2024 14:27:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 15:23:28.082815
- Title: Implementing local-explainability in Gradient Boosting Trees: Feature
Contribution
- Title(参考訳): 勾配ブースティングツリーにおける局所的説明可能性の実装:機能貢献
- Authors: \'Angel Delgado-Panadero, Beatriz Hern\'andez-Lorca, Mar\'ia Teresa
Garc\'ia-Ord\'as and Jos\'e Alberto Ben\'itez-Andrades
- Abstract要約: Gradient Boost Decision Trees (GBDT)は、強力な加算モデルベースのツリーアンサンブルである。
提案は、いくつかの人工知能問題に影響を及ぼす特性の寄与と一致している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gradient Boost Decision Trees (GBDT) is a powerful additive model based on
tree ensembles. Its nature makes GBDT a black-box model even though there are
multiple explainable artificial intelligence (XAI) models obtaining information
by reinterpreting the model globally and locally. Each tree of the ensemble is
a transparent model itself but the final outcome is the result of a sum of
these trees and it is not easy to clarify.
In this paper, a feature contribution method for GBDT is developed. The
proposed method takes advantage of the GBDT architecture to calculate the
contribution of each feature using the residue of each node. This algorithm
allows to calculate the sequence of node decisions given a prediction.
Theoretical proofs and multiple experiments have been carried out to
demonstrate the performance of our method which is not only a local
explicability model for the GBDT algorithm but also a unique option that
reflects GBDTs internal behavior. The proposal is aligned to the contribution
of characteristics having impact in some artificial intelligence problems such
as ethical analysis of Artificial Intelligence (AI) and comply with the new
European laws such as the General Data Protection Regulation (GDPR) about the
right to explain and nondiscrimination.
- Abstract(参考訳): Gradient Boost Decision Trees (GBDT) は木アンサンブルに基づく強力な付加モデルである。
その性質上、gbdtは複数の説明可能な人工知能(xai)モデルが存在するにもかかわらず、グローバルおよびローカルでモデルを再解釈することで情報を得るブラックボックスモデルとなっている。
アンサンブルの各木は透明なモデルであり、最終的な結果はこれらの木の総和の結果であり、明らかにすることは容易ではない。
本稿では,GBDTの特徴貢献手法について述べる。
提案手法はgbdtアーキテクチャを利用して各ノードの残差を用いて各特徴の寄与度を計算する。
このアルゴリズムは、予測されたノード決定の順序を計算することができる。
提案手法は,GBDTアルゴリズムの局所的説明可能性モデルだけでなく,GBDTの内部動作を反映したユニークな選択肢である。
この提案は、人工知能(AI)の倫理的分析のようないくつかの人工知能問題に影響を及ぼす特性の貢献と、説明と非差別に関する一般データ保護規則(GDPR)のような新たな欧州の法律に準拠している。
関連論文リスト
- Learning Deep Tree-based Retriever for Efficient Recommendation: Theory and Method [76.31185707649227]
効率的なレコメンデーションのために,Deep Tree-based Retriever (DTR)を提案する。
DTRは、トレーニングタスクを、同じレベルでツリーノード上のソフトマックスベースのマルチクラス分類としてフレーム化している。
非リーフノードのラベル付けによって引き起こされる準最適性を緩和するため、損失関数の補正法を提案する。
論文 参考訳(メタデータ) (2024-08-21T05:09:53Z) - Optimized Feature Generation for Tabular Data via LLMs with Decision Tree Reasoning [53.241569810013836]
本稿では,大規模言語モデル(LLM)を用いて,効率的な特徴生成ルールを同定するフレームワークを提案する。
我々は、自然言語で容易に表現できるため、この推論情報を伝達するために決定木を使用します。
OCTreeは様々なベンチマークで様々な予測モデルの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2024-06-12T08:31:34Z) - Invariant Random Forest: Tree-Based Model Solution for OOD
Generalization [13.259844672078552]
Invariant Decision Tree (IDT) と呼ばれる決定木モデルのOOD一般化のための新しい効果的な解を提案する。
IDTは、木の成長中に異なる環境にまたがる分裂の不安定で変動的な挙動に関して、ペナルティ項を強制する。
提案手法は, 温和な条件下での理論的結果によって動機付けられ, 合成データと実データの両方を用いて数値実験により検証される。
論文 参考訳(メタデータ) (2023-12-07T12:53:05Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Enhancing Robustness of Gradient-Boosted Decision Trees through One-Hot
Encoding and Regularization [10.942447664917061]
GBDTモデルを1つのダミー変数に1つの木葉を符号化することで,1ホット符号化を用いて線形フレームワークに変換する。
これにより線形回帰法が利用可能となり、GBDTモデルのロバスト性を評価する新たなリスク分解が可能となった。
数値実験により,提案手法は1ホット符号化GBDTモデルのロバスト性を高めることができることを示した。
論文 参考訳(メタデータ) (2023-04-26T18:04:16Z) - STERLING: Synergistic Representation Learning on Bipartite Graphs [78.86064828220613]
二部グラフ表現学習の基本的な課題は、ノードの埋め込みを抽出する方法である。
最近の二部グラフSSL法は、正ノード対と負ノード対を識別することによって埋め込みを学習する対照的な学習に基づいている。
負のノードペアを持たないノード埋め込みを学習するための新しい相乗的表現学習モデル(STERling)を提案する。
論文 参考訳(メタデータ) (2023-01-25T03:21:42Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Data-driven Numerical Invariant Synthesis with Automatic Generation of
Attributes [0.0]
数値不変合成と検証のためのデータ駆動アルゴリズムを提案する。
このアルゴリズムは、正および負の状態のサンプルから決定木を学習するためのICE-DTスキーマに基づいている。
論文 参考訳(メタデータ) (2022-05-30T09:18:37Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Unpack Local Model Interpretation for GBDT [20.760913382643555]
勾配向上決定木(GBDT)は、データマイニングタスクに広く使われている。
普及に伴い、モデル解釈の必要性が高まっている。
この研究は、ローカル解釈に焦点を当て、あらゆるバージョンでGBDTのインスタンスレベルの機能コントリビューションを得るための統一されたメカニズムを提案する。
論文 参考訳(メタデータ) (2020-04-03T03:25:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。