論文の概要: Interpretable Neural Networks based classifiers for categorical inputs
- arxiv url: http://arxiv.org/abs/2102.03202v1
- Date: Fri, 5 Feb 2021 14:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:49:00.710912
- Title: Interpretable Neural Networks based classifiers for categorical inputs
- Title(参考訳): カテゴリ入力のためのインタープリタブルニューラルネットワークに基づく分類器
- Authors: Stefano Zamuner, Paolo De Los Rios
- Abstract要約: 本稿では,入力カテゴリ変数として扱うニューラルネットワーク分類器の出力関数を簡易に解釈する手法を提案する。
これらの場合、ネットワークの各層、特にロジット層は、各入力パターンの分類に寄与する用語の総和として拡張可能であることを示す。
適切なゲージ変換後の各パターンのコントリビューションの分析を,本手法の有効性が評価できる2つの事例に示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Because of the pervasive usage of Neural Networks in human sensitive
applications, their interpretability is becoming an increasingly important
topic in machine learning. In this work we introduce a simple way to interpret
the output function of a neural network classifier that take as input
categorical variables. By exploiting a mapping between a neural network
classifier and a physical energy model, we show that in these cases each layer
of the network, and the logits layer in particular, can be expanded as a sum of
terms that account for the contribution to the classification of each input
pattern. For instance, at the first order, the expansion considers just the
linear relation between input features and output while at the second order
pairwise dependencies between input features are also accounted for. The
analysis of the contributions of each pattern, after an appropriate gauge
transformation, is presented in two cases where the effectiveness of the method
can be appreciated.
- Abstract(参考訳): 人間に敏感なアプリケーションでニューラルネットワークが広く使われているため、その解釈性は機械学習においてますます重要になっている。
本研究では,入力圏変数として捉えるニューラルネットワーク分類器の出力関数を簡便に解釈する手法を提案する。
ニューラルネットワーク分類器と物理エネルギーモデルの間のマッピングを利用することにより、これらの場合において、ネットワークの各層、特にロジッツ層は、各入力パターンの分類に寄与する項の和として拡張可能であることを示す。
例えば、第一階では、拡張は入力特徴と出力の間の線形関係のみを考慮し、第二階では入力特徴間のペアワイズ依存性も説明される。
適切なゲージ変換を行った後,各パターンの寄与度の解析を行い,その効果を評価できる2つの事例について述べる。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Closed-Form Interpretation of Neural Network Classifiers with Symbolic
Regression Gradients [0.7832189413179361]
ニューラルネットワークに基づく回帰とは対照的に、分類において、ニューラルネットワークからシンボル方程式への1対1マッピングを見つけることは一般的に不可能である。
トレーニングされたニューラルネットワークを、同じ量に基づいて決定を下す同値関数のクラスに組み込みます。
この等価クラスと記号回帰の探索空間で定義される人間可読方程式の交点を見つけることによってニューラルネットワークを解釈する。
論文 参考訳(メタデータ) (2024-01-10T07:47:42Z) - Instance-wise Linearization of Neural Network for Model Interpretation [13.583425552511704]
この課題は、ニューラルネットワークの非線形動作に潜むことができる。
ニューラルネットワークモデルでは、非線形な振る舞いはモデルの非線形なアクティベーションユニットによって引き起こされることが多い。
本稿では,ニューラルネットワーク予測のフォワード計算過程を再構成するインスタンスワイズ線形化手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T02:07:39Z) - Towards Rigorous Understanding of Neural Networks via
Semantics-preserving Transformations [0.0]
本稿では,Rectifier Neural Networksの正確かつグローバルな検証と説明に対するアプローチを提案する。
我々のアプローチの鍵は、意味論的に等価なTyped Affine Decision Structureの構築を可能にする、これらのネットワークのシンボリック実行である。
論文 参考訳(メタデータ) (2023-01-19T11:35:07Z) - Decomposing neural networks as mappings of correlation functions [57.52754806616669]
本研究では,ディープフィードフォワードネットワークによって実装された確率分布のマッピングについて検討する。
ニューラルネットワークで使用できる異なる情報表現と同様に、データに不可欠な統計を識別する。
論文 参考訳(メタデータ) (2022-02-10T09:30:31Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。