論文の概要: Glocal Explanations of Expected Goal Models in Soccer
- arxiv url: http://arxiv.org/abs/2308.15559v1
- Date: Tue, 29 Aug 2023 18:29:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 15:43:03.696742
- Title: Glocal Explanations of Expected Goal Models in Soccer
- Title(参考訳): サッカーにおける期待ゴールモデルの局所的説明
- Authors: Mustafa Cavus, Adrian Stando, Przemyslaw Biecek
- Abstract要約: 本稿では,チームレベルとプレーヤレベルのパフォーマンス分析を可能にするために,期待される目標モデルの局所的な説明を紹介する。
SHAP値の集約版と部分依存プロファイルの利用を提案する。
これにより、単一のショットではなく、プレイヤーやチームの期待されるゴールモデルから知識を抽出することができる。
- 参考スコア(独自算出の注目度): 4.915744683251151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The expected goal models have gained popularity, but their interpretability
is often limited, especially when trained using black-box methods. Explainable
artificial intelligence tools have emerged to enhance model transparency and
extract descriptive knowledge for a single observation or for all observations.
However, explaining black-box models for a specific group of observations may
be more useful in some domains. This paper introduces the glocal explanations
(between local and global levels) of the expected goal models to enable
performance analysis at the team and player levels by proposing the use of
aggregated versions of the SHAP values and partial dependence profiles. This
allows knowledge to be extracted from the expected goal model for a player or
team rather than just a single shot. In addition, we conducted real-data
applications to illustrate the usefulness of aggregated SHAP and aggregated
profiles. The paper concludes with remarks on the potential of these
explanations for performance analysis in soccer analytics.
- Abstract(参考訳): 期待されたゴールモデルは人気を得たが、その解釈可能性はしばしば制限されている。
説明可能な人工知能ツールは、モデルの透明性を高め、単一の観察またはすべての観察のために記述的知識を抽出するために出現した。
しかしながら、特定の観測群のブラックボックスモデルを説明することは、いくつかの領域でより有用である。
本稿では、SHAP値の集約バージョンと部分依存プロファイルの利用を提案し、チームとプレーヤレベルでのパフォーマンス分析を可能にするために、期待される目標モデルの局所的説明(地域レベルとグローバルレベル)を紹介する。
これにより、単一のショットではなく、プレイヤーやチームの期待されるゴールモデルから知識を抽出することができる。
さらに,shapと集約プロファイルの有用性を説明するために,実データアプリケーションも実施した。
サッカーにおけるパフォーマンス分析におけるこれらの説明の可能性について考察した。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Sum-of-Parts: Faithful Attributions for Groups of Features [8.68707471649733]
Sum-of-Parts(SOP)は、任意の差別化可能なモデルを、機能群に起因する予測を持つ自己説明モデルに変換するフレームワークである。
SOPは、ImageNetとCosmoGridの忠実度指標に関して高いスコアを得ながら、最高のパフォーマンスを達成する。
我々は,SOPが学習したグループの有用性を,高い純度,強い人間区別能力,科学的発見における実用性を通じて検証した。
論文 参考訳(メタデータ) (2023-10-25T02:50:10Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - NxPlain: Web-based Tool for Discovery of Latent Concepts [16.446370662629555]
提案するNxPlainは,潜在概念を用いたモデル予測を記述したWebアプリケーションである。
NxPlainは、深いNLPモデルで学んだ潜在概念を発見し、モデルで学んだ知識の解釈を提供し、使用した概念に基づいてその予測を説明する。
論文 参考訳(メタデータ) (2023-03-06T10:45:24Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Explainable expected goal models for performance analysis in football
analytics [5.802346990263708]
本報告では,2014-15年と2020-21年の7シーズンから315,430発のショットをトレーニングした,欧州サッカーリーグのトップ5のゴールモデルを提案する。
我々の知る限りでは、この論文は、プロファイルを集約した説明可能な人工知能ツールの実用的な応用を実証した最初の論文である。
論文 参考訳(メタデータ) (2022-06-14T23:56:03Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。