論文の概要: Complete Identification of Deep ReLU Neural Networks by Many-Valued Logic
- arxiv url: http://arxiv.org/abs/2602.00266v1
- Date: Fri, 30 Jan 2026 19:39:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.08505
- Title: Complete Identification of Deep ReLU Neural Networks by Many-Valued Logic
- Title(参考訳): 多値論理による深部ReLUニューラルネットワークの完全同定
- Authors: Yani Zhang, Helmut Bölcskei,
- Abstract要約: ディープReLUニューラルネットワークは、非自明な機能対称性を持つ。
我々はReLUネットワークをLukasiewicz論理式に変換する。
すべての関数同値類に対して、そのクラスのすべてのReLUネットワークは有限個の対称性によって接続されていることを示す。
- 参考スコア(独自算出の注目度): 1.917311746845434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep ReLU neural networks admit nontrivial functional symmetries: vastly different architectures and parameters (weights and biases) can realize the same function. We address the complete identification problem -- given a function f, deriving the architecture and parameters of all feedforward ReLU networks giving rise to f. We translate ReLU networks into Lukasiewicz logic formulae, and effect functional equivalent network transformations through algebraic rewrites governed by the logic axioms. A compositional norm form is proposed to facilitate the mapping from Lukasiewicz logic formulae back to ReLU networks. Using Chang's completeness theorem, we show that for every functional equivalence class, all ReLU networks in that class are connected by a finite set of symmetries corresponding to the finite set of axioms of Lukasiewicz logic. This idea is reminiscent of Shannon's seminal work on switching circuit design, where the circuits are translated into Boolean formulae, and synthesis is effected by algebraic rewriting governed by Boolean logic axioms.
- Abstract(参考訳): ディープReLUニューラルネットワークは、非自明な機能対称性を認めており、アーキテクチャとパラメータ(重みと偏り)は大きく異なり、同じ機能を実現できる。
関数 f が与えられたとき、f となるすべてのフィードフォワード ReLU ネットワークのアーキテクチャとパラメータを導出する。
我々はReLUネットワークをLukasiewicz論理式に変換し、論理公理によって支配される代数的書き換えを通じて機能的等価ネットワーク変換を行う。
ルカシエヴィチ論理式からReLUネットワークへの写像を容易にするための合成ノルム形式が提案されている。
チャンの完全性定理を用いて、すべての関数同値類において、そのクラスのすべてのReLUネットワークは、ルカシエヴィチ論理の有限公理の有限集合に対応する対称性の有限集合で接続されていることを示す。
この考えはシャノンの回路設計における精巧な研究を想起させるものであり、回路はブール公式に変換され、合成はブール論理公理によって支配される代数的書き換えによって影響される。
関連論文リスト
- Quantifying The Limits of AI Reasoning: Systematic Neural Network Representations of Algorithms [10.292476979020522]
基本的に任意の回路をフィードフォワードニューラルネットワーク(NN)に変換するシステムメタアルゴリズムを提案する。
あらゆるデジタルコンピュータ上で、我々の構成は回路を正確にエミュレートしている ― 近似がなく、丸めず、モジュラーなオーバーフローも含まない ― ニューラルネットワークの範囲を超えて推論タスクが存在しないことを実証している。
論文 参考訳(メタデータ) (2025-08-25T21:55:37Z) - A Constructive Framework for Nondeterministic Automata via Time-Shared, Depth-Unrolled Feedforward Networks [0.0]
非決定論的有限オートマトン(NFA)の時間分割・深度制御型フィードフォワードネットワーク(TS-FFN)を用いたフォーマルで建設的なシミュレーションフレームワークを提案する。
我々の定式化は、二進ベクトルとしてのオートマトン状態、スパース行列変換としての遷移、および共有しきい値更新の合成としての$varepsilon$-closuresを含む非決定的分岐を含む非決定論的分岐を象徴的に符号化する。
論文 参考訳(メタデータ) (2025-05-30T01:18:35Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - On transversality of bent hyperplane arrangements and the topological
expressiveness of ReLU neural networks [0.0]
F のアーキテクチャが二分分類タスクにおける決定領域の幾何と位相にどのように影響するかを考察する。
一般化されたReLUネットワーク F: Rn -> R の1つの隠蔽層を持つ決定領域が1つ以上の有界連結成分を持つことを証明するために、この障害を用いる。
論文 参考訳(メタデータ) (2020-08-20T16:06:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。