論文の概要: Regional, Lattice and Logical Representations of Neural Networks
- arxiv url: http://arxiv.org/abs/2506.05834v1
- Date: Fri, 06 Jun 2025 07:58:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.368949
- Title: Regional, Lattice and Logical Representations of Neural Networks
- Title(参考訳): ニューラルネットワークの局所的, 格子的, 論理的表現
- Authors: Sandro Preto, Marcelo Finger,
- Abstract要約: 本稿では、隠れ層におけるReLUアクティベーション関数と、出力層におけるTruncated IDアクティベーション関数とのフィードフォワードニューラルネットワークの変換アルゴリズムを提案する。
また,異なる大きさのニューラルネットワークに対して,提案手法によって出力される局所表現の複雑さを実験的に検討した。
- 参考スコア(独自算出の注目度): 0.5279873919047532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A possible path to the interpretability of neural networks is to (approximately) represent them in the regional format of piecewise linear functions, where regions of inputs are associated to linear functions computing the network outputs. We present an algorithm for the translation of feedforward neural networks with ReLU activation functions in hidden layers and truncated identity activation functions in the output layer. We also empirically investigate the complexity of regional representations outputted by our method for neural networks with varying sizes. Lattice and logical representations of neural networks are straightforward from regional representations as long as they satisfy a specific property. So we empirically investigate to what extent the translations by our algorithm satisfy such property.
- Abstract(参考訳): ニューラルネットワークの解釈可能性への道のりは、入力の領域がネットワーク出力を演算する線形関数と関連付けられている部分的な線形関数の地域形式でそれらを(ほぼ)表現することである。
本稿では、隠れ層におけるReLUアクティベーション関数と、出力層におけるTruncated IDアクティベーション関数とのフィードフォワードニューラルネットワークの変換アルゴリズムを提案する。
また,異なる大きさのニューラルネットワークに対して,提案手法によって出力される局所表現の複雑さを実験的に検討した。
ニューラルネットワークの格子表現と論理表現は、特定の性質を満たす限り、地域表現から簡単である。
そこで我々は,アルゴリズムによる翻訳がどの程度の性質を満たすかを実証的に検討する。
関連論文リスト
- Recurrent Neural Networks Learn to Store and Generate Sequences using Non-Linear Representations [54.17275171325324]
線形表現仮説(LRH)に対する反例を提示する。
入力トークンシーケンスを繰り返すように訓練されると、ニューラルネットワークは、方向ではなく、特定の順序で各位置のトークンを表現することを学ぶ。
これらの結果は、解釈可能性の研究はLRHに限定されるべきでないことを強く示唆している。
論文 参考訳(メタデータ) (2024-08-20T15:04:37Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Parallel Algorithms for Exact Enumeration of Deep Neural Network
Activation Regions [2.782882026947924]
フィードフォワードニューラルネットワークは、入力空間を一連の凸領域に分割することにより、入力から出力へのマッピングを構築する。
深部(および浅部)ニューラルネットワークにおける正確な列挙のための並列アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-29T20:48:39Z) - The Evolution of the Interplay Between Input Distributions and Linear
Regions in Networks [20.97553518108504]
ReLUに基づくディープニューラルネットワークにおける線形凸領域の数をカウントする。
特に、任意の1次元入力に対して、それを表現するのに必要となるニューロンの数に対して最小限の閾値が存在することを証明している。
また、トレーニング中のReLUネットワークにおける決定境界の反復的改善プロセスも明らかにした。
論文 参考訳(メタデータ) (2023-10-28T15:04:53Z) - A General Framework for Interpretable Neural Learning based on Local Information-Theoretic Goal Functions [1.5236380958983644]
我々は、教師なし、教師なし、メモリ学習のタスクを実行するために、'不定型'ニューラルネットワークを導入する。
PIDフレームワークの解釈可能な性質を活用することで、インフォモーフィックネットワークは、局所学習の複雑な構造を理解するための貴重なツールとなる。
論文 参考訳(メタデータ) (2023-06-03T16:34:25Z) - Points of non-linearity of functions generated by random neural networks [0.0]
1つの隠れ活性化層、任意の幅、ReLU活性化関数を持つニューラルネットワークによって出力される実数から実数への関数を考える。
非線型性の点の期待分布を計算する。
論文 参考訳(メタデータ) (2023-04-19T17:40:19Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。