論文の概要: CGXplain: Rule-Based Deep Neural Network Explanations Using Dual Linear
Programs
- arxiv url: http://arxiv.org/abs/2304.05207v1
- Date: Tue, 11 Apr 2023 13:16:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 14:55:21.412614
- Title: CGXplain: Rule-Based Deep Neural Network Explanations Using Dual Linear
Programs
- Title(参考訳): cgxplain:二重線形プログラムを用いたルールベースディープニューラルネットワークの説明
- Authors: Konstantin Hemker, Zohreh Shams, Mateja Jamnik
- Abstract要約: ルールベースサロゲートモデルは、ディープニューラルネットワーク(DNN)決定境界を近似する有効な方法である。
本稿では,これらの制約に対処するCGX(Column Generation eXplainer)を提案する。
- 参考スコア(独自算出の注目度): 4.632241550169363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rule-based surrogate models are an effective and interpretable way to
approximate a Deep Neural Network's (DNN) decision boundaries, allowing humans
to easily understand deep learning models. Current state-of-the-art
decompositional methods, which are those that consider the DNN's latent space
to extract more exact rule sets, manage to derive rule sets at high accuracy.
However, they a) do not guarantee that the surrogate model has learned from the
same variables as the DNN (alignment), b) only allow to optimise for a single
objective, such as accuracy, which can result in excessively large rule sets
(complexity), and c) use decision tree algorithms as intermediate models, which
can result in different explanations for the same DNN (stability). This paper
introduces the CGX (Column Generation eXplainer) to address these limitations -
a decompositional method using dual linear programming to extract rules from
the hidden representations of the DNN. This approach allows to optimise for any
number of objectives and empowers users to tweak the explanation model to their
needs. We evaluate our results on a wide variety of tasks and show that CGX
meets all three criteria, by having exact reproducibility of the explanation
model that guarantees stability and reduces the rule set size by >80%
(complexity) at equivalent or improved accuracy and fidelity across tasks
(alignment).
- Abstract(参考訳): ルールベースのサロゲートモデルは、Deep Neural Network(DNN)決定境界を近似し、人間がディープラーニングモデルを簡単に理解できるように、効果的で解釈可能な方法である。
現在の最先端分解法は、DNNの潜在空間からより正確な規則集合を抽出し、高い精度で規則集合を導出するものである。
しかし 彼らは
a) 代理モデルがDNN(アライメント)と同じ変数から学んだことを保証しない。
b) 過大なルールセット(複雑度)をもたらす可能性のある精度などの単一の目的を最適化することのみを許し、
c) 決定木アルゴリズムを中間モデルとして使用し、同じDNN(安定性)に対して異なる説明をすることができる。
本稿では,DNNの隠れ表現から規則を抽出するために,二重線形計画法を用いて,これらの制約を分解するCGX(Column Generation eXplainer)を提案する。
このアプローチは、任意の目的を最適化し、ユーザのニーズに合わせて説明モデルを調整できるようにする。
我々は,様々なタスクで結果を評価し,安定性を保証し,ルールセットサイズを80%以上(複雑度)削減する説明モデルの正確な再現性を持つことで,cgxが3つの基準をすべて満たしていることを示す。
関連論文リスト
- Efficient Link Prediction via GNN Layers Induced by Negative Sampling [92.05291395292537]
リンク予測のためのグラフニューラルネットワーク(GNN)は、緩やかに2つの広いカテゴリに分けられる。
まず、Emphnode-wiseアーキテクチャは各ノードの個別の埋め込みをプリコンパイルし、後に単純なデコーダで結合して予測を行う。
第二に、エンフェッジワイド法は、ペアワイド関係の表現を強化するために、エッジ固有のサブグラフ埋め込みの形成に依存している。
論文 参考訳(メタデータ) (2023-10-14T07:02:54Z) - A multiobjective continuation method to compute the regularization path of deep neural networks [1.3654846342364308]
数値効率を保証し、モデルの解釈性を改善し、堅牢性を向上させるため、ディープニューラルネットワーク(DNN)では、スパシティは高い特徴である。
本稿では,数百万のパラメータを持つ高次元勾配に対して,上述の目的に対するスパースフロント全体を極めて効率的な方法で実現するアルゴリズムを提案する。
正規化パスの知識がネットワークパラメトリゼーションを十分に一般化することを示す。
論文 参考訳(メタデータ) (2023-08-23T10:08:52Z) - Deep Model Reassembly [60.6531819328247]
我々はDeep Model Reassembly(DeRy)と呼ばれる新しい知識伝達タスクを探索する。
DeRyの目標は、まず各モデルを固有のビルディングブロックに分割し、それから派生したブロックを選択的に再組み立てて、カスタマイズされたネットワークを生成することである。
ImageNetでは、最高の再組み立てモデルは微調整なしで78.6%のトップ1の精度を実現している。
論文 参考訳(メタデータ) (2022-10-24T10:16:13Z) - RNN Transducers for Nested Named Entity Recognition with constraints on
alignment for long sequences [4.545971444299925]
我々は、NERタスクのための新しいモデル、トランスデューサ(RNN-T)を導入する。
RNN-Tモデルは、すべてのアライメントを合計するロス関数を用いてアライメントを学習する。
しかし、NERタスクでは、アノテーションから単語とターゲットラベルのアライメントが利用可能である。
固定アライメントモデルが標準RNNスコアモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-02-08T05:38:20Z) - Efficient Decompositional Rule Extraction for Deep Neural Networks [5.69361786082969]
ECLAIREは、大規模なDNNアーキテクチャと大規模なトレーニングデータセットの両方にスケール可能な、新しい時間ルール抽出アルゴリズムである。
ECLAIREは、現在の最先端手法よりも正確で理解しやすいルールセットを一貫して抽出することを示す。
論文 参考訳(メタデータ) (2021-11-24T16:54:10Z) - Scalable Rule-Based Representation Learning for Interpretable
Classification [12.736847587988853]
ルールベースのLearner Representation (RRL)は、データ表現と分類のための解釈可能な非ファジィ規則を学習する。
RRLは容易に調整でき、異なるシナリオの分類精度とモデルの複雑さのトレードオフを得ることができる。
論文 参考訳(メタデータ) (2021-09-30T13:07:42Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Better Short than Greedy: Interpretable Models through Optimal Rule
Boosting [10.938624307941197]
ルールアンサンブルは、予測精度とモデル解釈可能性の間の有用なトレードオフを提供するように設計されている。
与えられたアンサンブルサイズに対して最大予測力の規則アンサンブルを適合させる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-21T01:03:48Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Multi-Objective Matrix Normalization for Fine-grained Visual Recognition [153.49014114484424]
双線形プールは細粒度視覚認識(FGVC)において大きな成功を収める
近年,行列パワー正規化は双線形特徴量において2次情報を安定化させることができることが示されている。
両線形表現を同時に正規化できる効率的な多目的行列正規化法(MOMN)を提案する。
論文 参考訳(メタデータ) (2020-03-30T08:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。