論文の概要: Finding Minimum-Cost Explanations for Predictions made by Tree Ensembles
- arxiv url: http://arxiv.org/abs/2303.09271v1
- Date: Thu, 16 Mar 2023 12:53:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:42:08.261953
- Title: Finding Minimum-Cost Explanations for Predictions made by Tree Ensembles
- Title(参考訳): 木組による予測のための最小コスト記述の探索
- Authors: John T\"ornblom, Emil Karlsson, Simin Nadjm-Tehrani
- Abstract要約: 木アンサンブルによる予測は,最小限であるだけでなく,コスト関数に対しても最小限である。
まず,現在最先端の代替手段のランタイム性能を超越して,説明の正しさを判断できる高効率なオラクルを提案する。
- 参考スコア(独自算出の注目度): 1.2891210250935143
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The ability to explain why a machine learning model arrives at a particular
prediction is crucial when used as decision support by human operators of
critical systems. The provided explanations must be provably correct, and
preferably without redundant information, called minimal explanations. In this
paper, we aim at finding explanations for predictions made by tree ensembles
that are not only minimal, but also minimum with respect to a cost function.
To this end, we first present a highly efficient oracle that can determine
the correctness of explanations, surpassing the runtime performance of current
state-of-the-art alternatives by several orders of magnitude when computing
minimal explanations.
Secondly, we adapt an algorithm called MARCO from related works (calling it
m-MARCO) for the purpose of computing a single minimum explanation per
prediction, and demonstrate an overall speedup factor of two compared to the
MARCO algorithm which enumerates all minimal explanations.
Finally, we study the obtained explanations from a range of use cases,
leading to further insights of their characteristics. In particular, we observe
that in several cases, there are more than 100,000 minimal explanations to
choose from for a single prediction. In these cases, we see that only a small
portion of the minimal explanations are also minimum, and that the minimum
explanations are significantly less verbose, hence motivating the aim of this
work.
- Abstract(参考訳): 機械学習モデルが特定の予測に到達した理由を説明する能力は、クリティカルシステムの人間オペレータによる意思決定支援として使用される場合に重要である。
提供された説明は確実に正確でなければならず、最小限の説明と呼ばれる冗長な情報がないのが好ましい。
本稿では,コスト関数に関して最小であるだけでなく最小のツリーアンサンブルによる予測を説明することを目的とする。
この目的のために、我々はまず説明の正しさを判定し、最小限の説明を計算する際に、現在の最先端の代替品のランタイム性能を桁違いに上回る、高効率なオラクルを提示する。
次に, 関連研究(m-MARCOと呼ぶ)から MARCO と呼ばれるアルゴリズムを適用し, 予測毎の1つの最小説明を計算し, 全最小説明を列挙する MARCO アルゴリズムと比較して, 全体的なスピードアップ係数を2倍に示す。
最後に,様々な利用事例から得られた説明について検討し,その特徴についてさらなる知見を得た。
特に、いくつかのケースでは、1つの予測のために選択すべき最小限の説明が10万以上存在することを観察します。
これらのケースでは、最小限の説明のごく一部のみが最小であり、最小限の説明ははるかに冗長であり、したがってこの研究の目的を動機付けている。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - MaNtLE: Model-agnostic Natural Language Explainer [9.43206883360088]
モデルに依存しない自然言語説明器であるMaNtLEを導入し、複数の分類器の予測を解析する。
MaNtLEは、何千もの合成分類タスクでマルチタスクトレーニングを使用して、忠実な説明を生成する。
シミュレーションユーザスタディでは、平均して、MaNtLEの生成した説明は、LIMEやAnchorsの説明に比べて少なくとも11%忠実であることが示されている。
論文 参考訳(メタデータ) (2023-05-22T12:58:06Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Interpretability in the Wild: a Circuit for Indirect Object
Identification in GPT-2 small [68.879023473838]
間接オブジェクト識別 (IOI) と呼ばれる自然言語タスクにおいて, GPT-2 の小型化が果たす役割について解説する。
我々の知る限り、この調査は言語モデルにおいて「野生」の自然な振る舞いをリバースエンジニアリングする最大のエンドツーエンドの試みである。
論文 参考訳(メタデータ) (2022-11-01T17:08:44Z) - Detection Accuracy for Evaluating Compositional Explanations of Units [5.220940151628734]
このアプローチを使う方法の2つの例は、ネットワーク分割と構成的説明である。
直感的には、論理形式は原子概念よりも情報的であるが、この改善を定量化する方法は明らかではない。
提案手法は,各ユニットが割り当てた説明文の検出の一貫性を計測する検出精度の評価指標として用いる。
論文 参考訳(メタデータ) (2021-09-16T08:47:34Z) - Optimal Counterfactual Explanations in Tree Ensembles [3.8073142980733]
我々は「最適」な説明を目的としたモデルに基づく探索を提唱し、効率的な混合整数プログラミング手法を提案する。
孤立林は我々のフレームワーク内でモデル化され、低いアウトリーチスコアで妥当な説明に焦点を絞ることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T22:44:27Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z) - Approximate MMAP by Marginal Search [78.50747042819503]
本稿では,グラフィカルモデルにおける最小値MAPクエリの戦略を提案する。
提案した信頼度尺度は,アルゴリズムが正確であるインスタンスを適切に検出するものである。
十分に高い信頼度を得るために、アルゴリズムは正確な解を与えるか、正確な解からハミング距離が小さい近似を与える。
論文 参考訳(メタデータ) (2020-02-12T07:41:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。