論文の概要: Breaking the Paradox of Explainable Deep Learning
- arxiv url: http://arxiv.org/abs/2305.13072v1
- Date: Mon, 22 May 2023 14:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 15:25:14.785204
- Title: Breaking the Paradox of Explainable Deep Learning
- Title(参考訳): 説明可能な深層学習のパラドックスを破る
- Authors: Arlind Kadra, Sebastian Pineda Arango, Josif Grabocka
- Abstract要約: 説明可能な線形モデルを生成するために,ディープ・ハイパーネットワークを訓練する新しい手法を提案する。
うちのモデルは、ブラックボックスのディープネットワークの精度を維持しつつ、設計による無料のランチ説明を提供する。
- 参考スコア(独自算出の注目度): 13.320917259299652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning has achieved tremendous results by pushing the frontier of
automation in diverse domains. Unfortunately, current neural network
architectures are not explainable by design. In this paper, we propose a novel
method that trains deep hypernetworks to generate explainable linear models.
Our models retain the accuracy of black-box deep networks while offering free
lunch explainability by design. Specifically, our explainable approach requires
the same runtime and memory resources as black-box deep models, ensuring
practical feasibility. Through extensive experiments, we demonstrate that our
explainable deep networks are as accurate as state-of-the-art classifiers on
tabular data. On the other hand, we showcase the interpretability of our method
on a recent benchmark by empirically comparing prediction explainers. The
experimental results reveal that our models are not only as accurate as their
black-box deep-learning counterparts but also as interpretable as
state-of-the-art explanation techniques.
- Abstract(参考訳): ディープラーニングは、さまざまな領域における自動化のフロンティアを推し進めることで、大きな成果を上げています。
残念ながら、現在のニューラルネットワークアーキテクチャは設計上説明できない。
本稿では,深層ハイパーネットワークを訓練して説明可能な線形モデルを生成する新しい手法を提案する。
我々のモデルは、ブラックボックスディープネットワークの精度を維持しつつ、デザインごとに無料のランチ説明を提供する。
具体的には、説明可能なアプローチでは、ブラックボックスのディープモデルと同じランタイムとメモリリソースが必要です。
広範な実験を通じて,説明可能な深層ネットワークは,表データ上の最先端の分類器と同じくらい正確であることを実証した。
一方,予測記述器を実証的に比較し,最近のベンチマークで本手法の解釈可能性を示す。
実験結果から,我々のモデルはブラックボックスの深層学習と同等に正確であるだけでなく,最先端の説明手法と解釈可能であることがわかった。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Neurashed: A Phenomenological Model for Imitating Deep Learning Training [17.006003864727408]
将来的な深層学習理論は,3つの特徴を継承すべきである,と我々は主張する。 階層構造型ネットワークアーキテクチャ, 勾配法を用いてテキストに最適化されたパラメータ, テキスト圧縮的に進化するデータからの情報。
我々はこれらの特徴をTextitneurashedと呼ばれるグラフィカルモデルに統合し、ディープラーニングにおける一般的な経験的パターンを効果的に説明する。
論文 参考訳(メタデータ) (2021-12-17T19:51:26Z) - Deriving Explanation of Deep Visual Saliency Models [6.808418311272862]
我々は,その深部ニューラルネットワークに基づくサリエンシモデルから説明可能なサリエンシモデルを導出する手法を開発した。
我々は2つの最先端のディープ・サリエンシ・モデル、すなわちUNISALとMSI-Netを解釈として検討する。
我々はまた、サリエンシ予測のためのクロスコンカレントマルチスケール残差ブロックベースネットワーク(CMRNet)という独自のディープサリエンシモデルを構築した。
論文 参考訳(メタデータ) (2021-09-08T12:22:32Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z) - Making Neural Networks Interpretable with Attribution: Application to
Implicit Signals Prediction [11.427019313283997]
本稿では,属性処理のための解釈可能なディープニューラルネットワークの新たな定式化を提案する。
マスク付きの重量を使って隠れた特徴を深く評価し、いくつかの入力制限されたサブネットワークに分割し、専門家の強化された混合として訓練する。
論文 参考訳(メタデータ) (2020-08-26T06:46:49Z) - Cracking the Black Box: Distilling Deep Sports Analytics [17.35421731343764]
本稿では,スポーツ分析に応用した深層学習における精度と透明性のトレードオフについて論じる。
我々は、元のディープラーニングモデルの出力を模倣し、学習した知識を明示的な解釈可能な方法で表現する、シンプルで透明なモデルを構築します。
論文 参考訳(メタデータ) (2020-06-04T01:49:36Z) - Gradients as Features for Deep Representation Learning [26.996104074384263]
本稿では,事前学習したディープ・ネットワークを様々なタスクに適応させることによって,ディープ・表現学習の課題に対処する。
我々の重要な革新は、事前訓練されたネットワークの勾配と活性化の両方を組み込んだ線形モデルの設計である。
我々は,実際の勾配を計算せずに,モデルのトレーニングと推論を効率的に行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-12T02:57:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。