論文の概要: Constraining the outputs of ReLU neural networks
- arxiv url: http://arxiv.org/abs/2508.03867v1
- Date: Tue, 05 Aug 2025 19:30:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.428503
- Title: Constraining the outputs of ReLU neural networks
- Title(参考訳): ReLUニューラルネットワークの出力の制約
- Authors: Yulia Alexandr, Guido Montúfar,
- Abstract要約: 本稿では、ReLUニューラルネットワークに自然に関連付けられた代数多様体のクラスを紹介する。
各活性化領域内のネットワーク出力のランク制約を解析することにより、ネットワークが表現可能な関数を特徴付ける構造を導出する。
- 参考スコア(独自算出の注目度): 13.645092880691188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a class of algebraic varieties naturally associated with ReLU neural networks, arising from the piecewise linear structure of their outputs across activation regions in input space, and the piecewise multilinear structure in parameter space. By analyzing the rank constraints on the network outputs within each activation region, we derive polynomial equations that characterize the functions representable by the network. We further investigate conditions under which these varieties attain their expected dimension, providing insight into the expressive and structural properties of ReLU networks.
- Abstract(参考訳): 本稿では、ReLUニューラルネットワークに自然に関連付けられた代数多様体のクラスを紹介し、入力空間の活性化領域をまたいだ出力の分数次線形構造とパラメータ空間における分数次多線形構造から生じる。
各アクティベーション領域におけるネットワーク出力のランク制約を解析することにより、ネットワークで表現可能な関数を特徴づける多項式方程式を導出する。
さらに,これらの変数が期待される次元に達する条件について検討し,ReLUネットワークの表現的および構造的特性について考察する。
関連論文リスト
- Regional, Lattice and Logical Representations of Neural Networks [0.5279873919047532]
本稿では、隠れ層におけるReLUアクティベーション関数と、出力層におけるTruncated IDアクティベーション関数とのフィードフォワードニューラルネットワークの変換アルゴリズムを提案する。
また,異なる大きさのニューラルネットワークに対して,提案手法によって出力される局所表現の複雑さを実験的に検討した。
論文 参考訳(メタデータ) (2025-06-06T07:58:09Z) - On the Local Complexity of Linear Regions in Deep ReLU Networks [0.0]
低次元特徴表現を学習するReLUネットワークは局所的複雑性が低いことを示す。
特に、局所的な複雑性は、入力データ分布上の関数の総変動の上限として機能することを示す。
論文 参考訳(メタデータ) (2024-12-24T08:42:39Z) - The Evolution of the Interplay Between Input Distributions and Linear
Regions in Networks [20.97553518108504]
ReLUに基づくディープニューラルネットワークにおける線形凸領域の数をカウントする。
特に、任意の1次元入力に対して、それを表現するのに必要となるニューロンの数に対して最小限の閾値が存在することを証明している。
また、トレーニング中のReLUネットワークにおける決定境界の反復的改善プロセスも明らかにした。
論文 参考訳(メタデータ) (2023-10-28T15:04:53Z) - The Geometric Structure of Fully-Connected ReLU Layers [0.0]
ニューラルネットワークにおいて,$d$次元の完全連結ReLU層の幾何学構造を定式化し,解釈する。
このようなネットワークによって生成される決定境界の幾何学的複雑さに関する結果を提供するとともに、アフィン変換を変調することで、そのようなネットワークは$d$の異なる決定境界しか生成できないことを示す。
論文 参考訳(メタデータ) (2023-10-05T11:54:07Z) - Data Topology-Dependent Upper Bounds of Neural Network Widths [52.58441144171022]
まず、3層ニューラルネットワークがコンパクトな集合上のインジケータ関数を近似するように設計可能であることを示す。
その後、これは単純複体へと拡張され、その位相構造に基づいて幅の上界が導かれる。
トポロジカルアプローチを用いて3層ReLUネットワークの普遍近似特性を証明した。
論文 参考訳(メタデータ) (2023-05-25T14:17:15Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Towards Understanding Theoretical Advantages of Complex-Reaction
Networks [77.34726150561087]
パラメータ数を用いて,関数のクラスを複素反応ネットワークで近似できることを示す。
経験的リスク最小化については,複素反応ネットワークの臨界点集合が実数値ネットワークの固有部分集合であることを示す。
論文 参考訳(メタデータ) (2021-08-15T10:13:49Z) - Locally Linear Attributes of ReLU Neural Networks [2.218917829443032]
ReLUニューラルネットワークは、入力空間から出力空間への連続的なピースワイズ線形写像を決定/決定する。
ニューラルネットワークの重みは、入力空間の凸ポリトープへの分解を決定する。
これらのポリトープのそれぞれについて、ネットワークは単一のアフィン写像によって記述することができる。
論文 参考訳(メタデータ) (2020-11-30T19:31:23Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。