論文の概要: Towards Rigorous Understanding of Neural Networks via
Semantics-preserving Transformations
- arxiv url: http://arxiv.org/abs/2301.08013v1
- Date: Thu, 19 Jan 2023 11:35:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 15:18:08.333894
- Title: Towards Rigorous Understanding of Neural Networks via
Semantics-preserving Transformations
- Title(参考訳): 意味論的保存変換によるニューラルネットワークの厳密な理解に向けて
- Authors: Maximilian Schl\"uter and Gerrit Nolte and Alnis Murtovi and Bernhard
Steffen
- Abstract要約: 我々は,emphRectifier Neural Networksの正確かつグローバルな検証と説明へのアプローチを提案する。
我々のアプローチの鍵は、意味論的に等価なemphTyped Affine Decision Structures(TADS)の構築を可能にする、これらのネットワークのシンボリック実行である。
決定論的かつシーケンシャルな性質のため、TADSは決定木と同様に、ホワイトボックスモデルとみなすことができ、従ってモデルと結果説明問題の正確な解である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present an algebraic approach to the precise and global
verification and explanation of \emph{Rectifier Neural Networks}, a subclass of
\emph{Piece-wise Linear Neural Networks} (PLNNs), i.e., networks that
semantically represent piece-wise affine functions. Key to our approach is the
symbolic execution of these networks that allows the construction of
semantically equivalent \emph{Typed Affine Decision Structures} (TADS). Due to
their deterministic and sequential nature, TADS can, similarly to decision
trees, be considered as white-box models and therefore as precise solutions to
the model and outcome explanation problem. TADS are linear algebras which
allows one to elegantly compare Rectifier Networks for equivalence or
similarity, both with precise diagnostic information in case of failure, and to
characterize their classification potential by precisely characterizing the set
of inputs that are specifically classified or the set of inputs where two
network-based classifiers differ. All phenomena are illustrated along a
detailed discussion of a minimal, illustrative example: the continuous XOR
function.
- Abstract(参考訳): 本稿では, ピースワイドアフィン関数を意味的に表現するネットワークである \emph{Piece-wise Linear Neural Networks} (PLNN) のサブクラスである \emph{Rectifier Neural Networks} の, 正確かつ大域的な検証と説明に対する代数的アプローチを提案する。
我々のアプローチの鍵は、意味的に等価な \emph{typed affine decision structures} (tads) の構築を可能にするこれらのネットワークのシンボリックな実行である。
決定論的かつ逐次的な性質から、tadは決定木と同様にホワイトボックスモデルと見なすことができ、それゆえモデルと結果説明問題の正確な解である。
TADSは線形代数であり、2つのネットワークベースの分類器が異なる入力のセットや入力のセットを正確に特徴付けることにより、障害発生時の正確な診断情報の両方を整合性や類似性について整合性ネットワークをエレガントに比較することができる。
すべての現象は、最小限で図解的な例である連続 XOR 関数の詳細な議論に沿って説明される。
関連論文リスト
- Going Beyond Neural Network Feature Similarity: The Network Feature
Complexity and Its Interpretation Using Category Theory [64.06519549649495]
機能的に等価な機能と呼ぶものの定義を提供します。
これらの特徴は特定の変換の下で等価な出力を生成する。
反復的特徴マージ(Iterative Feature Merging)というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-10T16:27:12Z) - Combinatorial Convolutional Neural Networks for Words [0.0]
このようなパターンの同定は特定のアプリケーションにとって重要であると我々は主張する。
このようなパターンの同定は特定のアプリケーションにとって重要であると我々は主張する。
単語分類のための畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T07:49:06Z) - Bispectral Neural Networks [1.0323063834827415]
ニューラルネットワークアーキテクチャBNN(Bispectral Neural Networks)を提案する。
BNNは、群、その既約表現、および対応する同変写像と完全不変写像を同時に学習することができる。
論文 参考訳(メタデータ) (2022-09-07T18:34:48Z) - Optimising for Interpretability: Convolutional Dynamic Alignment
Networks [108.83345790813445]
我々は、畳み込み動的アライメントネットワーク(CoDA Nets)と呼ばれる新しいニューラルネットワークモデルを紹介する。
彼らの中核となるビルディングブロックは動的アライメントユニット(DAU)であり、タスク関連パターンに合わせて動的に計算された重みベクトルで入力を変換するように最適化されている。
CoDAネットは一連の入力依存線形変換を通じて分類予測をモデル化し、出力を個々の入力コントリビューションに線形分解することができる。
論文 参考訳(メタデータ) (2021-09-27T12:39:46Z) - Boundary Attributions Provide Normal (Vector) Explanations [27.20904776964045]
境界属性(BA)はこの問題に対処するための新しい説明法である。
BAは、ターゲット入力に対する局所的な決定境界の正規ベクトルを計算する。
ランダム化された平滑化ネットワークまたは堅牢に訓練されたネットワークのBAは、標準ネットワークよりも非境界アトリビューション方法にはるかに近い。
論文 参考訳(メタデータ) (2021-03-20T22:36:39Z) - Interpretable Neural Networks based classifiers for categorical inputs [0.0]
本稿では,入力カテゴリ変数として扱うニューラルネットワーク分類器の出力関数を簡易に解釈する手法を提案する。
これらの場合、ネットワークの各層、特にロジット層は、各入力パターンの分類に寄与する用語の総和として拡張可能であることを示す。
適切なゲージ変換後の各パターンのコントリビューションの分析を,本手法の有効性が評価できる2つの事例に示す。
論文 参考訳(メタデータ) (2021-02-05T14:38:50Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - The Projected Belief Network Classfier : both Generative and
Discriminative [13.554038901140949]
射影信頼ネットワーク (PBN) は、抽出可能な可能性関数を持つ層状生成ネットワークである。
本稿では,完全識別性と完全生成性を有する畳み込み型PBNを構築した。
論文 参考訳(メタデータ) (2020-08-14T16:00:54Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z) - Neural Anisotropy Directions [63.627760598441796]
我々は、アーキテクチャの方向性誘導バイアスをカプセル化するベクトルとして、神経異方性方向(NAD)を定義する。
CIFAR-10データセットでは、NADはCNNが異なるクラス間で識別するために使用する特徴を特徴付ける。
論文 参考訳(メタデータ) (2020-06-17T08:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。