論文の概要: Explainability in Simplicial Map Neural Networks
- arxiv url: http://arxiv.org/abs/2306.00010v1
- Date: Mon, 29 May 2023 19:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 20:45:35.489906
- Title: Explainability in Simplicial Map Neural Networks
- Title(参考訳): Simplicial Map Neural Networkにおける説明可能性
- Authors: Eduardo Paluzo-Hidalgo, Miguel A. Guti\'errez-Naranjo, Rocio
Gonzalez-Diaz
- Abstract要約: 単純なマップニューラルネットワーク(SMNN)は、興味深い特性を持つトポロジベースのニューラルネットワークである。
本稿では,与えられたデータセットのサポートサブセットとハイパースフィアへの投影に基づく手法に基づくSMNNトレーニング手順を提案する。
また,本論文では,SMNNの説明可能性についても初めて紹介する。
- 参考スコア(独自算出の注目度): 0.4125187280299248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simplicial map neural networks (SMNNs) are topology-based neural networks
with interesting properties such as universal approximation capability and
robustness to adversarial examples under appropriate conditions. However, SMNNs
present some bottlenecks for their possible application in high dimensions.
First, no SMNN training process has been defined so far. Second, SMNNs require
the construction of a convex polytope surrounding the input dataset. In this
paper, we propose a SMNN training procedure based on a support subset of the
given dataset and a method based on projection to a hypersphere as a
replacement for the convex polytope construction. In addition, the
explainability capacity of SMNNs is also introduced for the first time in this
paper.
- Abstract(参考訳): 単純写像ニューラルネットワーク(simplicial map neural networks, smnns)は、普遍近似能力や適切な条件下での逆例に対するロバスト性といった興味深い性質を持つトポロジーベースのニューラルネットワークである。
しかし、SMNNは高い次元で応用できるいくつかのボトルネックを提示する。
まず、SMNNのトレーニングプロセスは定義されていない。
第二に、SMNNは入力データセットを囲む凸ポリトープを構築する必要がある。
本稿では,与えられたデータセットのサポートサブセットに基づくsmnnトレーニング手順と,凸多面体構築の代替として超球への射影に基づく方法を提案する。
また,本論文では,SMNNの説明可能性についても初めて紹介する。
関連論文リスト
- Defining Neural Network Architecture through Polytope Structures of Dataset [53.512432492636236]
本稿では, ニューラルネットワーク幅の上下境界を定義し, 問題となるデータセットのポリトープ構造から情報を得る。
本研究では,データセットのポリトープ構造を学習したニューラルネットワークから推定できる逆条件を探索するアルゴリズムを開発した。
MNIST、Fashion-MNIST、CIFAR10といった一般的なデータセットは、顔の少ない2つ以上のポリトップを用いて効率的にカプセル化できることが確立されている。
論文 参考訳(メタデータ) (2024-02-04T08:57:42Z) - Spatial Bayesian Neural Networks [8.594478422578348]
我々は空間ベイズニューラルネットワーク(SBNN)と呼ばれる新しい空間過程モデルを提案する。
SBNNは、空間の微細格子上の位置における有限次元分布を、対象とするプロセスのそれと整合させることにより、校正される。
本稿では, ガウス過程, 対数正規過程, 最大安定過程など, 実際によく使用される様々な空間過程を表現するために, SBNN が利用できることを示す。
論文 参考訳(メタデータ) (2023-11-16T01:22:22Z) - Interpretable Neural Networks with Random Constructive Algorithm [3.1200894334384954]
本稿では,無作為重み付きニューラルネットワークの不透明なパラメータ化プロセスに取り組むために,空間情報を組み込んだ解釈型ニューラルネットワーク(INN)を提案する。
ネットワーク収束に寄与するノードパラメータを選択するために、候補ノードのプールと関係を確立することで、幾何学的関係戦略を考案する。
論文 参考訳(メタデータ) (2023-07-01T01:07:20Z) - Universal Approximation and the Topological Neural Network [0.0]
トポロジカルニューラルネットワーク(TNN)は、通常の有限次元空間の代わりにチコノフ位相空間からデータを取得する。
また、ボレル測度をデータとする分布ニューラルネットワーク(DNN)も導入する。
論文 参考訳(メタデータ) (2023-05-26T05:28:10Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Multilevel Bayesian Deep Neural Networks [0.5892638927736115]
我々は、ディープニューラルネットワーク(DNN)、特にトレースクラスニューラルネットワーク(TNN)に関連付けられた推論について検討する。
TNN事前は無限個の隠れ単位を持つ関数上で定義され、有限個の隠れ単位を持つ強い収束近似を持つ。
本稿では,TNNの強い収束を利用して,これらのモデルにマルチレベルモンテカルロ(MLMC)を適用する。
論文 参考訳(メタデータ) (2022-03-24T09:49:27Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。