論文の概要: Representing Piecewise-Linear Functions by Functions with Minimal Arity
- arxiv url: http://arxiv.org/abs/2406.02421v1
- Date: Tue, 4 Jun 2024 15:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 15:30:46.816202
- Title: Representing Piecewise-Linear Functions by Functions with Minimal Arity
- Title(参考訳): 最小アリティを持つ関数による経時的線形関数の表現
- Authors: Christoph Koutschan, Anton Ponomarchuk, Josef Schicho,
- Abstract要約: 入力空間 $mathbbRn$ の関数 $F$ によるテッセルレーションは、$max$ 関数の引数の数に直結することを示す。
- 参考スコア(独自算出の注目度): 0.5266869303483376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Any continuous piecewise-linear function $F\colon \mathbb{R}^{n}\to \mathbb{R}$ can be represented as a linear combination of $\max$ functions of at most $n+1$ affine-linear functions. In our previous paper [``Representing piecewise linear functions by functions with small arity'', AAECC, 2023], we showed that this upper bound of $n+1$ arguments is tight. In the present paper, we extend this result by establishing a correspondence between the function $F$ and the minimal number of arguments that are needed in any such decomposition. We show that the tessellation of the input space $\mathbb{R}^{n}$ induced by the function $F$ has a direct connection to the number of arguments in the $\max$ functions.
- Abstract(参考訳): 任意の連続ピースワイズ線型関数 $F\colon \mathbb{R}^{n}\to \mathbb{R}$ は、少なくとも$n+1$ アフィン線型関数の$\max$函数の線型結合として表すことができる。
AAECC, 2023] では、この上界の$n+1$引数は厳密であることを示した。
本稿では,任意の分解に必要な関数$F$と最小数の引数との対応性を確立することにより,この結果を拡張する。
入力空間 $\mathbb{R}^{n}$ の関数 $F$ によるテッセル化は、$\max$ 関数の引数の数に直結することを示す。
関連論文リスト
- The Communication Complexity of Approximating Matrix Rank [50.6867896228563]
この問題は通信複雑性のランダム化を$Omega(frac1kcdot n2log|mathbbF|)$とする。
アプリケーションとして、$k$パスを持つ任意のストリーミングアルゴリズムに対して、$Omega(frac1kcdot n2log|mathbbF|)$スペースローバウンドを得る。
論文 参考訳(メタデータ) (2024-10-26T06:21:42Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の等方的ガウスデータの下で勾配降下学習の問題を考察する。
SGDアルゴリズムで最適化された2層ニューラルネットワークは、サンプル付き任意のリンク関数の$f_*$を学習し、実行時の複雑さは$n asymp T asymp C(q) cdot dであることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - When does a bent concatenation not belong to the completed Maiorana-McFarland class? [47.2382573252527]
曲がった結合 $f$ (not) は、完了した Maiorana-McFarland クラス $mathcalM#$ に属するのか?
私たちは$mathcalM#$の外で曲がった関数を指定する方法を示します。
論文 参考訳(メタデータ) (2024-04-24T21:36:19Z) - A Minimal Control Family of Dynamical Syetem for Universal Approximation [6.164223149261533]
制御族は任意のコンパクト領域上で$mathbbRd$の微分同相を近似できるフロー写像を生成することができることを示す。
この結果から,ニューラルネットワークと制御系の近似パワーの基盤となる関係が明らかとなった。
論文 参考訳(メタデータ) (2023-12-20T10:36:55Z) - Representing Piecewise Linear Functions by Functions with Small Arity [0.0]
すべてのピースワイズ線型函数に対して、少なくとも$n+1$引数を持つ$max$-函数の線型結合が存在することを示す。
また、ピースワイズ線型関数 $max(0, x_1, ldots, x_n)$ が、$n+1$ Affine-linear arguments 以下の最大値の線型結合として表現できないことも証明した。
論文 参考訳(メタデータ) (2023-05-26T13:48:37Z) - On minimal representations of shallow ReLU networks [0.0]
f$の最小表現は$n$、$n+1$または$n+2$のどちらかを使用する。
特に入力層が一次元の場合、最小表現は常に少なくとも$n+1$のニューロンで使用されるが、高次元設定では$n+2$のニューロンを必要とする関数が存在する。
論文 参考訳(メタデータ) (2021-08-12T10:22:24Z) - Submodular + Concave [53.208470310734825]
第一次最適化法が凹関数の最大目的値に収束できることはよく確立されている。
本研究では、滑らかな函数凸体(英語版)の行列式を$F(x) = G(x) +C(x)$で始める。
このクラスの函数は、保証がないような凹凸函数と連続DR-部分モジュラ函数の両方の拡張である。
論文 参考訳(メタデータ) (2021-06-09T01:59:55Z) - Minimax Regret for Bandit Convex Optimisation of Ridge Functions [34.686687996497525]
f(x) = g(langle x, thetarangle)$ for convex $g : mathbb R to mathbb R$ and $theta in mathbb Rd$.} という形の函数の演奏に制限される対向的な対向的バンドイ・凸最適化を解析する。
我々は、ミニマックス後悔が少なくとも$O(dsqrtn log(operatornamediammathcal K))$であるという短い情報理論の証明を提供する。
論文 参考訳(メタデータ) (2021-06-01T12:51:48Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Fast Convergence of Langevin Dynamics on Manifold: Geodesics meet
Log-Sobolev [31.57723436316983]
ある関数に対して高次元分布行列からサンプリングする1つのアプローチはランゲヴィンアルゴリズムである。
私たちの仕事は[53]の結果を一般化します。$mathRn$ は $bbRn$ ではなく af$ で定義されます。
論文 参考訳(メタデータ) (2020-10-11T15:02:12Z) - On the Modularity of Hypernetworks [103.1147622394852]
構造化対象関数の場合、ハイパーネットワークにおけるトレーニング可能なパラメータの総数は、標準ニューラルネットワークのトレーニング可能なパラメータの数や埋め込み法よりも桁違いに小さいことを示す。
論文 参考訳(メタデータ) (2020-02-23T22:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。