論文の概要: Opening Up the Neural Network Classifier for Shap Score Computation
- arxiv url: http://arxiv.org/abs/2303.06516v1
- Date: Sat, 11 Mar 2023 23:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 18:32:00.848365
- Title: Opening Up the Neural Network Classifier for Shap Score Computation
- Title(参考訳): shapスコア計算のためのニューラルネットワーク分類器の公開
- Authors: Leopoldo Bertossi and Jorge E. Leon
- Abstract要約: 本稿では,バイナリニューラルネットワーク(BNN)を決定論的かつ分解可能なブール回路に分類する。
結果として得られる回路はオープンボックスモデルとして扱われ、このクラスの回路に対する最近の効率的なアルゴリズムを用いてシャップスコアを計算する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of efficiently computing Shap explanation scores for
classifications with machine learning models. With this goal, we show the
transformation of binary neural networks (BNNs) for classification into
deterministic and decomposable Boolean circuits, for which knowledge
compilation techniques are used. The resulting circuit is treated as an
open-box model, to compute Shap scores by means of a recent efficient algorithm
for this class of circuits. Detailed experiments show a considerable gain in
performance in comparison with computing Shap directly on the BNN treated as a
black-box model.
- Abstract(参考訳): 機械学習モデルを用いた分類におけるShap説明スコアの効率的な計算の問題に対処する。
この目的により、二元ニューラルネットワーク(BNN)の分類を決定論的かつ分解可能なブール回路に変換し、知識コンパイル技術を用いることを示す。
その結果得られる回路はオープンボックスモデルとして扱われ、この種類の回路に対する最近の効率的なアルゴリズムにより、shapスコアを計算する。
詳細な実験により、ブラックボックスモデルとして扱われるbnn上でのshapの計算性能は大幅に向上した。
関連論文リスト
- Conditional Information Gain Trellis [1.290382979353427]
条件計算は、ニューラルネットワークの計算ユニットの一部のみを使用して入力を処理する。
深層畳み込みニューラルネットワークにおける特定の実行パスを生成するために,トレリスに基づくアプローチを用いる。
条件付き実行機構は,非条件付きベースラインと比較して,同等あるいは優れたモデル性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-13T10:23:45Z) - Towards Efficient Verification of Quantized Neural Networks [9.352320240912109]
量子化は、深層ニューラルネットワークモデルにおける浮動小数点演算を整数演算に置き換える。
本研究では,勾配に基づく探索手法と有界伝播手法を用いて,効率を向上できることを示す。
論文 参考訳(メタデータ) (2023-12-20T00:43:13Z) - SparseProp: Efficient Sparse Backpropagation for Faster Training of
Neural Networks [20.18957052535565]
トレーニング中のニューラルネットワークの重みが不足している場合に特化して、バックプロパゲーションアルゴリズムの新たな効率的なバージョンを提供する。
我々のアルゴリズムは、任意の(非構造的な)スパーシリティと共通層タイプに適用されるため、一般的なものである。
我々は、すでに分離されたネットワークを用いたトランスファーラーニングや、スパースネットワークをスクラッチからトレーニングすることで、エンドツーエンドのランタイム実験で高速化できることを示す。
論文 参考訳(メタデータ) (2023-02-09T18:54:05Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Distillation of Weighted Automata from Recurrent Neural Networks using a
Spectral Approach [0.0]
本稿では,ディープラーニングと文法推論のギャップを埋める試みである。
言語モデリングのためにトレーニングされたリカレントニューラルネットワークからフォーマルな言語を抽出するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-28T07:04:15Z) - Generalized Leverage Score Sampling for Neural Networks [82.95180314408205]
レバレッジスコアサンプリング(英: Leverage score sample)は、理論計算機科学に由来する強力な技術である。
本研究では、[Avron, Kapralov, Musco, Musco, Musco, Velingker, Zandieh 17] の結果をより広範なカーネルのクラスに一般化する。
論文 参考訳(メタデータ) (2020-09-21T14:46:01Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Adaptive Explainable Neural Networks (AxNNs) [8.949704905866888]
我々は、予測性能とモデル解釈可能性の両目標を達成するために、Adaptive Explainable Neural Networks (AxNN) と呼ばれる新しいフレームワークを開発した。
予測性能向上のために,一般化された付加的モデルネットワークと付加的インデックスモデルからなる構造化ニューラルネットワークを構築した。
本稿では,AxNNの結果を主効果と高次相互作用効果に分解する方法を示す。
論文 参考訳(メタデータ) (2020-04-05T23:40:57Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。