論文の概要: Distilling Interpretable Models into Human-Readable Code
- arxiv url: http://arxiv.org/abs/2101.08393v2
- Date: Tue, 9 Feb 2021 02:13:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 23:02:14.866488
- Title: Distilling Interpretable Models into Human-Readable Code
- Title(参考訳): 解釈可能なモデルを人間の可読コードに蒸留する
- Authors: Walker Ravina, Ethan Sterling, Olexiy Oryeshko, Nathan Bell, Honglei
Zhuang, Xuanhui Wang, Yonghui Wu, Alexander Grushetsky
- Abstract要約: 人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
- 参考スコア(独自算出の注目度): 71.11328360614479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of model distillation is to faithfully transfer teacher model
knowledge to a model which is faster, more generalizable, more interpretable,
or possesses other desirable characteristics. Human-readability is an important
and desirable standard for machine-learned model interpretability. Readable
models are transparent and can be reviewed, manipulated, and deployed like
traditional source code. As a result, such models can be improved outside the
context of machine learning and manually edited if desired. Given that directly
training such models is difficult, we propose to train interpretable models
using conventional methods, and then distill them into concise, human-readable
code.
The proposed distillation methodology approximates a model's univariate
numerical functions with piecewise-linear curves in a localized manner. The
resulting curve model representations are accurate, concise, human-readable,
and well-regularized by construction. We describe a piecewise-linear
curve-fitting algorithm that produces high-quality results efficiently and
reliably across a broad range of use cases. We demonstrate the effectiveness of
the overall distillation technique and our curve-fitting algorithm using four
datasets across the tasks of classification, regression, and ranking.
- Abstract(参考訳): モデル蒸留の目標は、教師モデルの知識をより速く、より一般化され、より解釈可能で、他の望ましい特性を持つモデルに忠実に移すことである。
人間可読性は、機械学習モデルの解釈可能性にとって重要かつ望ましい標準である。
可読モデルは透過的で、レビュー、操作、従来のソースコードのようにデプロイできる。
その結果、このようなモデルは機械学習のコンテキスト外で改善され、必要に応じて手動で編集することができる。
このようなモデルを直接訓練することは困難であるため、従来の手法を用いて解釈可能なモデルを訓練し、それらを簡潔で可読なコードに抽出することを提案する。
提案する蒸留法は,局所的に線形曲線を持つモデルの不定値数値関数を近似する。
結果として得られる曲線モデル表現は正確で簡潔で、人間の読みやすく、構成によってよく表現される。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
本研究では, 総合蒸留法と曲線適合アルゴリズムの有効性を, 分類, 回帰, ランキングの4つの課題にまたがって示す。
関連論文リスト
- Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Deep Explainable Learning with Graph Based Data Assessing and Rule
Reasoning [4.369058206183195]
本稿では、ノイズハンドリングにおけるディープモデルの利点とエキスパートルールに基づく解釈可能性を組み合わせたエンドツーエンドのディープ・ツー・エンドのディープ・説明可能な学習手法を提案する。
提案手法は, 工業生産システムにおいて, 予測精度に匹敵し, より高い一般化安定性, より優れた解釈可能性を示す。
論文 参考訳(メタデータ) (2022-11-09T05:58:56Z) - Merging Models with Fisher-Weighted Averaging [24.698591753644077]
我々は、複数のモデルを1つに“マージ”するモデル間で知識を伝達する、根本的に異なる方法を紹介します。
提案手法は,モデルのパラメータの重み付け平均を効果的に計算する。
マージ手順により、これまで探索されていなかった方法でモデルを組み合わせることが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-18T17:59:35Z) - LocalGLMnet: interpretable deep learning for tabular data [0.0]
一般化線形モデルと類似した特徴を共用する新しいネットワークアーキテクチャを提案する。
我々のアプローチは、シェープリー値と積分勾配の精神を加法的に分解する。
論文 参考訳(メタデータ) (2021-07-23T07:38:33Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - Model-Augmented Actor-Critic: Backpropagating through Paths [81.86992776864729]
現在のモデルに基づく強化学習アプローチでは、単に学習されたブラックボックスシミュレータとしてモデルを使用する。
その微分可能性を利用してモデルをより効果的に活用する方法を示す。
論文 参考訳(メタデータ) (2020-05-16T19:18:10Z) - Amortized Bayesian model comparison with evidential deep learning [0.12314765641075436]
本稿では,専門的なディープラーニングアーキテクチャを用いたベイズモデルの比較手法を提案する。
提案手法は純粋にシミュレーションベースであり,観測された各データセットに対して,すべての代替モデルを明示的に適合させるステップを回避している。
提案手法は,本研究で検討した事例に対して,精度,キャリブレーション,効率の点で優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-22T15:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。