論文の概要: Breaking the Paradox of Explainable Deep Learning
- arxiv url: http://arxiv.org/abs/2305.13072v1
- Date: Mon, 22 May 2023 14:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 15:25:14.785204
- Title: Breaking the Paradox of Explainable Deep Learning
- Title(参考訳): 説明可能な深層学習のパラドックスを破る
- Authors: Arlind Kadra, Sebastian Pineda Arango, Josif Grabocka
- Abstract要約: 説明可能な線形モデルを生成するために,ディープ・ハイパーネットワークを訓練する新しい手法を提案する。
うちのモデルは、ブラックボックスのディープネットワークの精度を維持しつつ、設計による無料のランチ説明を提供する。
- 参考スコア(独自算出の注目度): 13.320917259299652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning has achieved tremendous results by pushing the frontier of
automation in diverse domains. Unfortunately, current neural network
architectures are not explainable by design. In this paper, we propose a novel
method that trains deep hypernetworks to generate explainable linear models.
Our models retain the accuracy of black-box deep networks while offering free
lunch explainability by design. Specifically, our explainable approach requires
the same runtime and memory resources as black-box deep models, ensuring
practical feasibility. Through extensive experiments, we demonstrate that our
explainable deep networks are as accurate as state-of-the-art classifiers on
tabular data. On the other hand, we showcase the interpretability of our method
on a recent benchmark by empirically comparing prediction explainers. The
experimental results reveal that our models are not only as accurate as their
black-box deep-learning counterparts but also as interpretable as
state-of-the-art explanation techniques.
- Abstract(参考訳): ディープラーニングは、さまざまな領域における自動化のフロンティアを推し進めることで、大きな成果を上げています。
残念ながら、現在のニューラルネットワークアーキテクチャは設計上説明できない。
本稿では,深層ハイパーネットワークを訓練して説明可能な線形モデルを生成する新しい手法を提案する。
我々のモデルは、ブラックボックスディープネットワークの精度を維持しつつ、デザインごとに無料のランチ説明を提供する。
具体的には、説明可能なアプローチでは、ブラックボックスのディープモデルと同じランタイムとメモリリソースが必要です。
広範な実験を通じて,説明可能な深層ネットワークは,表データ上の最先端の分類器と同じくらい正確であることを実証した。
一方,予測記述器を実証的に比較し,最近のベンチマークで本手法の解釈可能性を示す。
実験結果から,我々のモデルはブラックボックスの深層学習と同等に正確であるだけでなく,最先端の説明手法と解釈可能であることがわかった。
関連論文リスト
- Escaping the Forest: Sparse Interpretable Neural Networks for Tabular Data [0.0]
我々のモデルであるSparse TABular NET や sTAB-Net がツリーベースモデルよりも効果的であることを示す。
SHAPのようなポストホックメソッドよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-10-23T10:50:07Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Unveiling Invariances via Neural Network Pruning [44.47186380630998]
不変性は、データの基本となるセマンティクスを変更しない変換を記述する。
現代のネットワークは、よく知られた不変性を扱うために手作りされている。
本研究では,データ依存の不変性を抽出する新しいネットワークアーキテクチャの学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-15T05:38:33Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - XBNet : An Extremely Boosted Neural Network [0.0]
XBNetは、ツリーベースのモデルとニューラルネットワークのモデルを組み合わせて、新しい最適化テクニックであるBoosted Gradient Descent for Tabular Dataを使用してトレーニングされた堅牢なアーキテクチャを作成しようとしている。
本稿では,新しい最適化手法であるBoosted Gradient Descent for Tabular Dataを用いてトレーニングされた堅牢なアーキテクチャを構築するために,ツリーベースモデルとニューラルネットワークのアーキテクチャを組み合わせた新しいアーキテクチャXBNetについて述べる。
論文 参考訳(メタデータ) (2021-06-09T17:31:50Z) - TabularNet: A Neural Network Architecture for Understanding Semantic
Structures of Tabular Data [30.479822289380255]
本稿では,テーブルから空間情報と関係情報を同時に抽出する新しいニューラルネットワークアーキテクチャであるTabularNetを提案する。
リレーショナル情報のために,WordNet木に基づく新しいグラフ構築法を設計し,GCNベースのエンコーダを採用する。
私たちのニューラルネットワークアーキテクチャは、さまざまな理解タスクのための統一されたニューラルネットワークバックボーンであり、マルチタスクシナリオで利用できます。
論文 参考訳(メタデータ) (2021-06-06T11:48:09Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。