論文の概要: Grouping Shapley Value Feature Importances of Random Forests for
explainable Yield Prediction
- arxiv url: http://arxiv.org/abs/2304.07111v1
- Date: Fri, 14 Apr 2023 13:03:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 13:37:59.010382
- Title: Grouping Shapley Value Feature Importances of Random Forests for
explainable Yield Prediction
- Title(参考訳): 説明可能な収量予測のためのランダム林の群落共有価値特性
- Authors: Florian Huber, Hannes Engler, Anna Kicherer, Katja Herzog, Reinhard
T\"opfer, Volker Steinhage
- Abstract要約: 本稿では,特徴群に対して直接計算されたShapley値の概念を説明し,木構造上で効率的に計算するアルゴリズムを提案する。
我々は、グローバルな理解のために多くのローカルな説明を組み合わせてSwarmプロットを設計するための青写真を提供する。
- 参考スコア(独自算出の注目度): 0.8543936047647136
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainability in yield prediction helps us fully explore the potential of
machine learning models that are already able to achieve high accuracy for a
variety of yield prediction scenarios. The data included for the prediction of
yields are intricate and the models are often difficult to understand. However,
understanding the models can be simplified by using natural groupings of the
input features. Grouping can be achieved, for example, by the time the features
are captured or by the sensor used to do so. The state-of-the-art for
interpreting machine learning models is currently defined by the game-theoretic
approach of Shapley values. To handle groups of features, the calculated
Shapley values are typically added together, ignoring the theoretical
limitations of this approach. We explain the concept of Shapley values directly
computed for predefined groups of features and introduce an algorithm to
compute them efficiently on tree structures. We provide a blueprint for
designing swarm plots that combine many local explanations for global
understanding. Extensive evaluation of two different yield prediction problems
shows the worth of our approach and demonstrates how we can enable a better
understanding of yield prediction models in the future, ultimately leading to
mutual enrichment of research and application.
- Abstract(参考訳): 収差予測における説明可能性は、すでに様々な収差予測シナリオに対して高い精度を達成できる機械学習モデルの可能性の解明に役立ちます。
収量予測に含まれるデータは複雑であり、モデルを理解することはしばしば困難である。
しかし、モデルの理解は、入力特徴の自然なグループ化を用いて単純化することができる。
グループ化は、例えば、特徴がキャプチャされた時や、それに用いるセンサーによって達成される。
機械学習モデルを解釈するための最先端技術は現在、Shapley値のゲーム理論的アプローチによって定義されている。
特徴群を扱うために、計算されたシェープリー値は通常、このアプローチの理論的制限を無視して、一緒に追加される。
本稿では,事前定義された特徴群に対して直接計算されたShapley値の概念を説明し,木構造上で効率的に計算するアルゴリズムを提案する。
グローバル理解のための多くのローカルな説明を組み合わせた、スワーミングプロットを設計するための青写真を提供します。
2つの異なる収率予測問題の広範な評価は、我々のアプローチの価値を示し、将来的な収率予測モデルの理解を深める方法を示し、最終的には研究と応用の相互強化に繋がる。
関連論文リスト
- Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - TsSHAP: Robust model agnostic feature-based explainability for time
series forecasting [6.004928390125367]
我々は,ブラックボックス予測モデルの予測を説明できる機能ベースの説明可能性アルゴリズムTsSHAPを提案する。
我々は、時系列予測の文脈において、局所的、半局所的、グローバルな説明の概念を定式化する。
論文 参考訳(メタデータ) (2023-03-22T05:14:36Z) - Distributional Gradient Boosting Machines [77.34726150561087]
私たちのフレームワークはXGBoostとLightGBMをベースにしています。
我々は,このフレームワークが最先端の予測精度を実現することを示す。
論文 参考訳(メタデータ) (2022-04-02T06:32:19Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Complex Event Forecasting with Prediction Suffix Trees: Extended
Technical Report [70.7321040534471]
複合イベント認識(CER)システムは、イベントのリアルタイムストリーム上のパターンを"即時"検出する能力によって、過去20年間に人気が高まっている。
このような現象が実際にCERエンジンによって検出される前に、パターンがいつ発生するかを予測する方法が不足している。
複雑なイベント予測の問題に対処しようとする形式的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-01T09:52:31Z) - An Interpretable Probabilistic Model for Short-Term Solar Power
Forecasting Using Natural Gradient Boosting [0.0]
本稿では,高精度で信頼性が高く,鋭い予測を生成できる2段階確率予測フレームワークを提案する。
このフレームワークは、ポイント予測と予測間隔(PI)の両方について完全な透明性を提供する。
提案フレームワークの性能と適用性を強調するため,南ドイツにある2つのPV公園の実際のデータを用いている。
論文 参考訳(メタデータ) (2021-08-05T12:59:38Z) - Explaining a Series of Models by Propagating Local Feature Attributions [9.66840768820136]
複数の機械学習モデルを含むパイプラインは、多くの領域でパフォーマンスが向上するが、理解が難しい。
Shapley値への接続に基づいて、モデルの複雑なパイプラインを通じてローカル機能属性を伝播させるフレームワークを紹介します。
本フレームワークにより,アルツハイマー病および乳癌の組織学的診断における遺伝子発現特徴群に基づく高次結論の導出が可能となった。
論文 参考訳(メタデータ) (2021-04-30T22:20:58Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。