論文の概要: Learning outside the Black-Box: The pursuit of interpretable models
- arxiv url: http://arxiv.org/abs/2011.08596v1
- Date: Tue, 17 Nov 2020 12:39:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 15:54:31.967056
- Title: Learning outside the Black-Box: The pursuit of interpretable models
- Title(参考訳): ブラックボックスの外で学ぶ:解釈可能なモデルの追求
- Authors: Jonathan Crabb\'e, Yao Zhang, William Zame, Mihaela van der Schaar
- Abstract要約: 本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
- 参考スコア(独自算出の注目度): 78.32475359554395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning has proved its ability to produce accurate models but the
deployment of these models outside the machine learning community has been
hindered by the difficulties of interpreting these models. This paper proposes
an algorithm that produces a continuous global interpretation of any given
continuous black-box function. Our algorithm employs a variation of projection
pursuit in which the ridge functions are chosen to be Meijer G-functions,
rather than the usual polynomial splines. Because Meijer G-functions are
differentiable in their parameters, we can tune the parameters of the
representation by gradient descent; as a consequence, our algorithm is
efficient. Using five familiar data sets from the UCI repository and two
familiar machine learning algorithms, we demonstrate that our algorithm
produces global interpretations that are both highly accurate and parsimonious
(involve a small number of terms). Our interpretations permit easy
understanding of the relative importance of features and feature interactions.
Our interpretation algorithm represents a leap forward from the previous state
of the art.
- Abstract(参考訳): 機械学習は正確なモデルを生成できることを証明しているが、機械学習コミュニティ以外でのモデルのデプロイは、これらのモデルの解釈の難しさによって妨げられている。
本稿では,任意の連続ブラックボックス関数の連続大域的解釈を行うアルゴリズムを提案する。
このアルゴリズムは、リッジ関数が通常の多項式スプラインではなく、meijer g-関数として選択される射影追跡のバリエーションを用いる。
meijer g-関数はそれらのパラメータで微分可能であるので、勾配降下によって表現のパラメータを調整できる。
UCIレポジトリからの5つの親しみのあるデータセットと2つの親しみのある機械学習アルゴリズムを用いて、我々のアルゴリズムは、高度に正確かつ同義的な大域的な解釈を生成する(少数の用語を発明する)。
我々の解釈は、特徴と特徴の相対的重要性の理解を容易にします。
我々の解釈アルゴリズムは、以前の技術から飛躍的な進歩を示している。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Interpreting Black-box Machine Learning Models for High Dimensional
Datasets [40.09157165704895]
我々は、高次元データセット上でブラックボックスモデルをトレーニングし、その分類が行われる埋め込みを学習する。
次に、トップk特徴空間上の解釈可能な代理モデルを用いてブラックボックスモデルの挙動を近似する。
我々のアプローチは、異なるデータセットでテストした場合、TabNetやXGboostのような最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-08-29T07:36:17Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - Model-agnostic interpretation by visualization of feature perturbations [0.0]
粒子群最適化アルゴリズムによって誘導される特徴の摂動を可視化し,モデルに依存しない解釈手法を提案する。
我々は,公開データセットに対して質的かつ定量的にアプローチを検証する。
論文 参考訳(メタデータ) (2021-01-26T00:53:29Z) - Interactive slice visualization for exploring machine learning models [0.0]
予測空間のスライスをインタラクティブに可視化し,解釈可能性の低下に対処する。
具体的には,機械学習アルゴリズムのブラックボックスを開放し,モデルの適合性を疑問視し,説明し,検証し,比較する。
論文 参考訳(メタデータ) (2021-01-18T10:47:53Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Classification Under Human Assistance [29.220005688025378]
教師付き学習モデルでは、異なる自動化レベル下での運用が、完全な自動化のためにトレーニングされた者や、単独で運用する人間よりも優れていることを示す。
医学診断におけるいくつかの応用から得られた合成および実世界のデータに関する実験は、我々の理論的知見を示している。
論文 参考訳(メタデータ) (2020-06-21T16:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。