論文の概要: On the Effectiveness of Interpretable Feedforward Neural Network
- arxiv url: http://arxiv.org/abs/2111.02303v1
- Date: Wed, 3 Nov 2021 15:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 12:42:43.187932
- Title: On the Effectiveness of Interpretable Feedforward Neural Network
- Title(参考訳): 解釈可能なフィードフォワードニューラルネットワークの有効性について
- Authors: Miles Q. Li, Benjamin C. M. Fung, Adel Abusitta
- Abstract要約: インタプリタブルフィードフォワードニューラルネットワーク(IFFNN)は、高い分類性能とマルウェア検出の解釈可能性を実現する。
本稿では,解釈可能なフィードフォワードニューラルネットワークを多クラス分類シナリオやフィードフォワードニューラルネットワークの種類に一般化する方法を提案する。
- 参考スコア(独自算出の注目度): 3.9124823111588176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have achieved state-of-the-art performance in many
classification tasks. However, most of them cannot provide an interpretation
for their classification results. Machine learning models that are
interpretable are usually linear or piecewise linear and yield inferior
performance. Non-linear models achieve much better classification performance,
but it is hard to interpret their classification results. This may have been
changed by an interpretable feedforward neural network (IFFNN) proposed that
achieves both high classification performance and interpretability for malware
detection. If the IFFNN can perform well in a more flexible and general form
for other classification tasks while providing meaningful interpretations, it
may be of great interest to the applied machine learning community. In this
paper, we propose a way to generalize the interpretable feedforward neural
network to multi-class classification scenarios and any type of feedforward
neural networks, and evaluate its classification performance and
interpretability on intrinsic interpretable datasets. We conclude by finding
that the generalized IFFNNs achieve comparable classification performance to
their normal feedforward neural network counterparts and provide meaningful
interpretations. Thus, this kind of neural network architecture has great
practical use.
- Abstract(参考訳): ディープラーニングモデルは、多くの分類タスクにおいて最先端のパフォーマンスを達成した。
しかし、そのほとんどは分類結果の解釈を与えることはできない。
解釈可能な機械学習モデルは、通常線形または分割線形であり、性能が劣る。
非線形モデルは分類性能が大幅に向上するが、分類結果の解釈は困難である。
これは、高い分類性能とマルウェア検出の解釈可能性の両方を達成する、解釈可能なフィードフォワードニューラルネットワーク(iffnn)によって提案された。
IFFNNが、意味のある解釈を提供しながら、他の分類タスクに対してより柔軟で一般的な形式でうまく機能できるなら、応用機械学習コミュニティにとって大きな関心事になるかもしれない。
本稿では,解釈可能なフィードフォワードニューラルネットワークを,多クラス分類シナリオやフィードフォワードニューラルネットワークに一般化する方法を提案し,その分類性能と本質的解釈可能なデータセット上での解釈可能性を評価する。
一般化されたIFFNNは、通常のフィードフォワードニューラルネットワークと同等の分類性能を示し、意味のある解釈を提供する。
したがって、この種のニューラルネットワークアーキテクチャは、非常に実用的です。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Hidden Classification Layers: Enhancing linear separability between
classes in neural networks layers [0.0]
トレーニング手法の深層ネットワーク性能への影響について検討する。
本稿では,全てのネットワークレイヤの出力を含むエラー関数を誘導するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-09T10:52:49Z) - Wide and Deep Neural Networks Achieve Optimality for Classification [23.738242876364865]
我々は、最適性を達成するニューラルネットワーク分類器の明示的な集合を同定し、構築する。
特に、最適性を実現するネットワーク構築に使用できる明示的なアクティベーション関数を提供する。
その結果,過度な深度が有害な回帰タスクとは対照的に,分類タスクにディープネットワークを使用することの利点が浮き彫りになった。
論文 参考訳(メタデータ) (2022-04-29T14:27:42Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z) - Adaptive Explainable Neural Networks (AxNNs) [8.949704905866888]
我々は、予測性能とモデル解釈可能性の両目標を達成するために、Adaptive Explainable Neural Networks (AxNN) と呼ばれる新しいフレームワークを開発した。
予測性能向上のために,一般化された付加的モデルネットワークと付加的インデックスモデルからなる構造化ニューラルネットワークを構築した。
本稿では,AxNNの結果を主効果と高次相互作用効果に分解する方法を示す。
論文 参考訳(メタデータ) (2020-04-05T23:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。