論文の概要: Coalitional strategies for efficient individual prediction explanation
- arxiv url: http://arxiv.org/abs/2104.00765v1
- Date: Thu, 1 Apr 2021 21:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 01:51:11.587951
- Title: Coalitional strategies for efficient individual prediction explanation
- Title(参考訳): 効率的な個人予測説明のための協調戦略
- Authors: Gabriel Ferrettini (1), Elodie Escriva (2), Julien Aligon (1),
Jean-Baptiste Excoffier (2), Chantal Soul\'e-Dupuy (1) ((1) Universit\'e de
Toulouse-Capitole, IRIT CNRS/UMR 5505, (2) Kaduceo)
- Abstract要約: 本稿では,関連する属性群 -- 名前付き連立 -- の検出に基づく手法を提供し,予測に影響を与える。
以上の結果から,これらの連立手法はSHapley Additive exPlanationなどの既存手法よりも効率的であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Machine Learning (ML) is now widely applied in many domains, in both
research and industry, an understanding of what is happening inside the black
box is becoming a growing demand, especially by non-experts of these models.
Several approaches had thus been developed to provide clear insights of a model
prediction for a particular observation but at the cost of long computation
time or restrictive hypothesis that does not fully take into account
interaction between attributes. This paper provides methods based on the
detection of relevant groups of attributes -- named coalitions -- influencing a
prediction and compares them with the literature. Our results show that these
coalitional methods are more efficient than existing ones such as SHapley
Additive exPlanation (SHAP). Computation time is shortened while preserving an
acceptable accuracy of individual prediction explanations. Therefore, this
enables wider practical use of explanation methods to increase trust between
developed ML models, end-users, and whoever impacted by any decision where
these models played a role.
- Abstract(参考訳): 機械学習(ML)は、現在、研究と産業の両方において、多くの領域で広く適用されているため、ブラックボックス内で起きていることに対する理解は、特にこれらのモデルの非専門家によって、ますます需要が高まっている。
したがって、特定の観察のためにモデル予測の明確な洞察を提供するためにいくつかのアプローチが開発されたが、長い計算時間や属性間の相互作用を完全に考慮しない制限付き仮説のコストで開発された。
本稿では,関連する属性群 -- 名前付き連立 -- の検出に基づく手法を提供し,それらを文献と比較する。
以上の結果から,これらの連立手法はSHAP (SHapley Additive exPlanation) などの既存手法よりも効率的であることが示唆された。
個々の予測説明の許容精度を維持しながら計算時間を短縮する。
これにより、開発されたmlモデル、エンドユーザ、およびこれらのモデルが役割を担う決定によって影響を受ける人の間の信頼を高めるために、説明方法をより効果的に活用することができる。
関連論文リスト
- Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Grouping Shapley Value Feature Importances of Random Forests for
explainable Yield Prediction [0.8543936047647136]
本稿では,特徴群に対して直接計算されたShapley値の概念を説明し,木構造上で効率的に計算するアルゴリズムを提案する。
我々は、グローバルな理解のために多くのローカルな説明を組み合わせてSwarmプロットを設計するための青写真を提供する。
論文 参考訳(メタデータ) (2023-04-14T13:03:33Z) - Functional Ensemble Distillation [18.34081591772928]
本研究では,効率的なモデルを用いて,アンサンブルの予測を最もよく蒸留する方法を検討する。
混合増量方式による簡易増量方式による蒸留モデルの学習により, 性能が著しく向上することが判明した。
論文 参考訳(メタデータ) (2022-06-05T14:07:17Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - Tree-based local explanations of machine learning model predictions,
AraucanaXAI [2.9660372210786563]
パフォーマンスと知性の間のトレードオフは、特に医学のような高度な応用において、しばしば直面する。
本稿では,ジェネリックMLモデルの予測に関する説明を生成するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T17:39:19Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - TimeSHAP: Explaining Recurrent Models through Sequence Perturbations [3.1498833540989413]
リカレントニューラルネットワークは、多くの機械学習ドメインで標準的なビルディングブロックである。
これらのモデルにおける複雑な意思決定はブラックボックスと見なされ、正確性と解釈可能性の間の緊張を生み出す。
本研究では,モデルに依存しないリカレント説明器であるTimeSHAPを提示することにより,これらのギャップを埋めることに寄与する。
論文 参考訳(メタデータ) (2020-11-30T19:48:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。