論文の概要: Maxout Polytopes
- arxiv url: http://arxiv.org/abs/2509.21286v1
- Date: Thu, 25 Sep 2025 15:06:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:13.016695
- Title: Maxout Polytopes
- Title(参考訳): Maxout (複数形 Maxouts)
- Authors: Andrei Balakin, Shelby Cox, Georg Loho, Bernd Sturmfels,
- Abstract要約: 最大出力ポリトープは、第1層の後、最大出力活性化関数と非負重みを持つフィードフォワードニューラルネットワークによって定義される。
浅層ネットワークにおける最大ポリトープのパラメータ空間と極端Fベクトルを特徴付けるとともに,ネットワークに層を追加して発生する超曲面の分離について検討する。
- 参考スコア(独自算出の注目度): 0.9857968274865206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Maxout polytopes are defined by feedforward neural networks with maxout activation function and non-negative weights after the first layer. We characterize the parameter spaces and extremal f-vectors of maxout polytopes for shallow networks, and we study the separating hypersurfaces which arise when a layer is added to the network. We also show that maxout polytopes are cubical for generic networks without bottlenecks.
- Abstract(参考訳): 最大出力ポリトープは、第1層の後、最大出力活性化関数と非負重みを持つフィードフォワードニューラルネットワークによって定義される。
浅層ネットワークにおける最大ポリトープのパラメータ空間と極端Fベクトルを特徴付けるとともに,ネットワークに層を追加して発生する超曲面の分離について検討する。
また、最大出力ポリトープはボトルネックのない汎用ネットワークに対して立方体であることを示す。
関連論文リスト
- SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Data Topology-Dependent Upper Bounds of Neural Network Widths [52.58441144171022]
まず、3層ニューラルネットワークがコンパクトな集合上のインジケータ関数を近似するように設計可能であることを示す。
その後、これは単純複体へと拡張され、その位相構造に基づいて幅の上界が導かれる。
トポロジカルアプローチを用いて3層ReLUネットワークの普遍近似特性を証明した。
論文 参考訳(メタデータ) (2023-05-25T14:17:15Z) - Lower Bounds on the Depth of Integral ReLU Neural Networks via Lattice
Polytopes [3.0079490585515343]
我々は、$lceillog_(n)rceil$ hidden layerが$n$の最大値を計算するために本当に必要であることを示す。
この結果は、ニューラルネットワークと熱帯の幾何学によるニュートンポリトープの双対性に基づいている。
論文 参考訳(メタデータ) (2023-02-24T10:14:53Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - Enumeration of max-pooling responses with generalized permutohedra [39.58317527488534]
最大プーリング層(英: Max-pooling layer)は、入力座標のシフトしたウィンドウの最大値を取ることで入力アレイをサンプリングする関数である。
このようなポリトープの面を特徴付け、1次元最大プーリング層における頂点数と面数の生成関数と閉式を得る。
論文 参考訳(メタデータ) (2022-09-29T17:45:54Z) - Sharp bounds for the number of regions of maxout networks and vertices
of Minkowski sums [1.1602089225841632]
rank-k maxout ユニットは、最大 $k$ 線形関数を計算する関数です。
本稿では,最大単位を持つ人工フィードフォワードニューラルネットワークで表現可能な関数の線形領域数について報告する。
論文 参考訳(メタデータ) (2021-04-16T14:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。