論文の概要: Partially Interpretable Estimators (PIE): Black-Box-Refined
Interpretable Machine Learning
- arxiv url: http://arxiv.org/abs/2105.02410v1
- Date: Thu, 6 May 2021 03:06:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 13:38:20.015920
- Title: Partially Interpretable Estimators (PIE): Black-Box-Refined
Interpretable Machine Learning
- Title(参考訳): 部分解釈型推定器(PIE: Black-Box-Refined Interpretable Machine Learning)
- Authors: Tong Wang, Jingyi Yang, Yunyi Li, Boxiang Wang
- Abstract要約: 本稿では,各特徴に対する予測を解釈可能なモデルで特徴づける部分的解釈可能な推定子(pie)を提案する。
2種類のモデルを共同トレーニングするための反復トレーニングアルゴリズムを設計します。
実験の結果,PIEはブラックボックスモデルに対して高い競争力を示し,解釈可能なベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 5.479705009242287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Partially Interpretable Estimators (PIE) which attribute a
prediction to individual features via an interpretable model, while a
(possibly) small part of the PIE prediction is attributed to the interaction of
features via a black-box model, with the goal to boost the predictive
performance while maintaining interpretability. As such, the interpretable
model captures the main contributions of features, and the black-box model
attempts to complement the interpretable piece by capturing the "nuances" of
feature interactions as a refinement. We design an iterative training algorithm
to jointly train the two types of models. Experimental results show that PIE is
highly competitive to black-box models while outperforming interpretable
baselines. In addition, the understandability of PIE is comparable to simple
linear models as validated via a human evaluation.
- Abstract(参考訳): 解釈可能性を維持しながら予測性能を向上させることを目的として,部分的解釈可能推定器(PIE)を提案し,PIE予測の(おそらく)小さな部分はブラックボックスモデルによる特徴の相互作用によるものである。
このように、解釈可能なモデルは特徴の主要な貢献を捉え、ブラックボックスモデルは特徴相互作用の「ニュアンス」を改良として捉えて解釈可能なピースを補完しようとする。
2種類のモデルを協調訓練するための反復学習アルゴリズムを設計する。
実験の結果,PIEはブラックボックスモデルに対して高い競争力を示し,解釈可能なベースラインよりも優れていた。
加えて、PIEの可解性は人間の評価によって検証される単純な線形モデルに匹敵する。
関連論文リスト
- Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Exploring the cloud of feature interaction scores in a Rashomon set [17.775145325515993]
本稿では,Rashomon セットのコンテキストにおける特徴相互作用スコア (FIS) について述べる。
我々は、合成データを用いてFISの特性を実証し、他の統計分野との接続を図示する。
この結果から,提案したFISは,機械学習モデルにおける特徴相互作用の性質に関する貴重な洞察を得られることが示唆された。
論文 参考訳(メタデータ) (2023-05-17T13:05:26Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Influence Tuning: Demoting Spurious Correlations via Instance
Attribution and Instance-Driven Updates [26.527311287924995]
インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
制御された設定では、インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-07T06:59:46Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - A Causal Lens for Peeking into Black Box Predictive Models: Predictive
Model Interpretation via Causal Attribution [3.3758186776249928]
予測モデルがブラックボックスであるような設定でこの問題に対処することを目指している。
我々は、ブラックボックス予測モデルをモデル出力に対する各モデル入力の因果効果を推定する問題と比較する。
モデル入力に対するモデル出力に対する責任の因果関係が、予測モデルを解釈し、その予測を説明するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-01T23:20:57Z) - A Semiparametric Approach to Interpretable Machine Learning [9.87381939016363]
機械学習におけるブラックボックスモデルは、複雑な問題と高次元設定において優れた予測性能を示した。
透明性と解釈可能性の欠如は、重要な意思決定プロセスにおけるそのようなモデルの適用性を制限します。
半パラメトリック統計学のアイデアを用いて予測モデルにおける解釈可能性と性能のトレードオフを行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-08T16:38:15Z) - An interpretable neural network model through piecewise linear
approximation [7.196650216279683]
本稿では,線形成分と非線形成分を組み合わせたハイブリッド解釈モデルを提案する。
第1のコンポーネントは、モデルの表現性を高めるために、一括線形近似による明示的な特徴貢献を記述する。
他のコンポーネントは多層パーセプトロンを使用して特徴相互作用と暗黙の非線形性をキャプチャし、予測性能を向上させる。
論文 参考訳(メタデータ) (2020-01-20T14:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。