論文の概要: Towards Rigorous Understanding of Neural Networks via
Semantics-preserving Transformations
- arxiv url: http://arxiv.org/abs/2301.08013v1
- Date: Thu, 19 Jan 2023 11:35:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 15:18:08.333894
- Title: Towards Rigorous Understanding of Neural Networks via
Semantics-preserving Transformations
- Title(参考訳): 意味論的保存変換によるニューラルネットワークの厳密な理解に向けて
- Authors: Maximilian Schl\"uter and Gerrit Nolte and Alnis Murtovi and Bernhard
Steffen
- Abstract要約: 我々は,emphRectifier Neural Networksの正確かつグローバルな検証と説明へのアプローチを提案する。
我々のアプローチの鍵は、意味論的に等価なemphTyped Affine Decision Structures(TADS)の構築を可能にする、これらのネットワークのシンボリック実行である。
決定論的かつシーケンシャルな性質のため、TADSは決定木と同様に、ホワイトボックスモデルとみなすことができ、従ってモデルと結果説明問題の正確な解である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present an algebraic approach to the precise and global
verification and explanation of \emph{Rectifier Neural Networks}, a subclass of
\emph{Piece-wise Linear Neural Networks} (PLNNs), i.e., networks that
semantically represent piece-wise affine functions. Key to our approach is the
symbolic execution of these networks that allows the construction of
semantically equivalent \emph{Typed Affine Decision Structures} (TADS). Due to
their deterministic and sequential nature, TADS can, similarly to decision
trees, be considered as white-box models and therefore as precise solutions to
the model and outcome explanation problem. TADS are linear algebras which
allows one to elegantly compare Rectifier Networks for equivalence or
similarity, both with precise diagnostic information in case of failure, and to
characterize their classification potential by precisely characterizing the set
of inputs that are specifically classified or the set of inputs where two
network-based classifiers differ. All phenomena are illustrated along a
detailed discussion of a minimal, illustrative example: the continuous XOR
function.
- Abstract(参考訳): 本稿では, ピースワイドアフィン関数を意味的に表現するネットワークである \emph{Piece-wise Linear Neural Networks} (PLNN) のサブクラスである \emph{Rectifier Neural Networks} の, 正確かつ大域的な検証と説明に対する代数的アプローチを提案する。
我々のアプローチの鍵は、意味的に等価な \emph{typed affine decision structures} (tads) の構築を可能にするこれらのネットワークのシンボリックな実行である。
決定論的かつ逐次的な性質から、tadは決定木と同様にホワイトボックスモデルと見なすことができ、それゆえモデルと結果説明問題の正確な解である。
TADSは線形代数であり、2つのネットワークベースの分類器が異なる入力のセットや入力のセットを正確に特徴付けることにより、障害発生時の正確な診断情報の両方を整合性や類似性について整合性ネットワークをエレガントに比較することができる。
すべての現象は、最小限で図解的な例である連続 XOR 関数の詳細な議論に沿って説明される。
関連論文リスト
- Learning local discrete features in explainable-by-design convolutional neural networks [0.0]
本稿では,側方抑制機構に基づくCNN(Design-by-Design Convolutional Neural Network)を提案する。
このモデルは、残留または高密度のスキップ接続を持つ高精度CNNである予測器で構成されている。
観測を収集し,直接確率を計算することにより,隣接するレベルのモチーフ間の因果関係を説明することができる。
論文 参考訳(メタデータ) (2024-10-31T18:39:41Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Combinatorial Convolutional Neural Networks for Words [0.0]
このようなパターンの同定は特定のアプリケーションにとって重要であると我々は主張する。
このようなパターンの同定は特定のアプリケーションにとって重要であると我々は主張する。
単語分類のための畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T07:49:06Z) - Bispectral Neural Networks [1.0323063834827415]
ニューラルネットワークアーキテクチャBNN(Bispectral Neural Networks)を提案する。
BNNは、群、その既約表現、および対応する同変写像と完全不変写像を同時に学習することができる。
論文 参考訳(メタデータ) (2022-09-07T18:34:48Z) - Interpretable Neural Networks based classifiers for categorical inputs [0.0]
本稿では,入力カテゴリ変数として扱うニューラルネットワーク分類器の出力関数を簡易に解釈する手法を提案する。
これらの場合、ネットワークの各層、特にロジット層は、各入力パターンの分類に寄与する用語の総和として拡張可能であることを示す。
適切なゲージ変換後の各パターンのコントリビューションの分析を,本手法の有効性が評価できる2つの事例に示す。
論文 参考訳(メタデータ) (2021-02-05T14:38:50Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - The Projected Belief Network Classfier : both Generative and
Discriminative [13.554038901140949]
射影信頼ネットワーク (PBN) は、抽出可能な可能性関数を持つ層状生成ネットワークである。
本稿では,完全識別性と完全生成性を有する畳み込み型PBNを構築した。
論文 参考訳(メタデータ) (2020-08-14T16:00:54Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z) - Neural Anisotropy Directions [63.627760598441796]
我々は、アーキテクチャの方向性誘導バイアスをカプセル化するベクトルとして、神経異方性方向(NAD)を定義する。
CIFAR-10データセットでは、NADはCNNが異なるクラス間で識別するために使用する特徴を特徴付ける。
論文 参考訳(メタデータ) (2020-06-17T08:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。