論文の概要: YANNs: Y-wise Affine Neural Networks for Exact and Efficient Representations of Piecewise Linear Functions
- arxiv url: http://arxiv.org/abs/2505.07054v1
- Date: Sun, 11 May 2025 16:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.185212
- Title: YANNs: Y-wise Affine Neural Networks for Exact and Efficient Representations of Piecewise Linear Functions
- Title(参考訳): YANNs:Y-wise Affine Neural Networks for Exact and Effient Representation of Piecewise Linear Function
- Authors: Austin Braniff, Yuhe Tian,
- Abstract要約: Y-wise Affine Neural Networks (YANN) は、ポリトピックによる断片的なアフィン関数を表現する、完全に説明可能なネットワークアーキテクチャである。
YANNは元の定式化の数学的性質をすべて維持する。
理論的には、状態、出力、集合点、乱の断片的なアフィン関数として最適制御法則を計算している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work formally introduces Y-wise Affine Neural Networks (YANNs), a fully-explainable network architecture that continuously and efficiently represent piecewise affine functions with polytopic subdomains. Following from the proofs, it is shown that the development of YANNs requires no training to achieve the functionally equivalent representation. YANNs thus maintain all mathematical properties of the original formulations. Multi-parametric model predictive control is utilized as an application showcase of YANNs, which theoretically computes optimal control laws as a piecewise affine function of states, outputs, setpoints, and disturbances. With the exact representation of multi-parametric control laws, YANNs retain essential control-theoretic guarantees such as recursive feasibility and stability. This sets YANNs apart from the existing works which apply neural networks for approximating optimal control laws instead of exactly representing them. By optimizing the inference speed of the networks, YANNs can evaluate substantially faster in real-time compared to traditional piecewise affine function calculations. Numerical case studies are presented to demonstrate the algorithmic scalability with respect to the input/output dimensions and the number of subdomains. YANNs represent a significant advancement in control as the first neural network-based controller that inherently ensures both feasibility and stability. Future applications can leverage them as an efficient and interpretable starting point for data-driven modeling/control.
- Abstract(参考訳): この研究はY-wise Affine Neural Networks (YANNs) を正式に導入した。
これらの結果から,YANNの開発には,機能的に等価な表現を実現するためのトレーニングが不要であることが示唆された。
したがって、YANNは元の定式化の数学的性質をすべて維持する。
多パラメータモデル予測制御は、状態、出力、集合点、乱の断片的なアフィン関数として最適制御法則を理論的に計算するYANNのアプリケーションショーケースとして利用される。
多パラメータ制御法則の正確な表現により、YANNは再帰的実現可能性や安定性といった本質的な制御理論的な保証を維持している。
これによりYANNは、ニューラルネットワークを用いて最適な制御法則を正確に表現するのではなく、近似する既存の研究とは別物となる。
ネットワークの推論速度を最適化することにより、YANNは従来のアフィン関数計算と比較して、リアルタイムに大幅に高速に評価できる。
数値ケーススタディでは,入力/出力次元とサブドメイン数に関して,アルゴリズムのスケーラビリティを示す。
YANNは、実現可能性と安定性の両方を本質的に保証する最初のニューラルネットワークベースのコントローラとして、制御の大幅な進歩を示している。
将来のアプリケーションは、それらをデータ駆動モデリング/制御の効率的かつ解釈可能な出発点として利用することができる。
関連論文リスト
- SineKAN: Kolmogorov-Arnold Networks Using Sinusoidal Activation Functions [0.0]
本稿では,B-Splineアクティベーション関数の学習可能なグリッドを,再重み付き正弦関数のグリッド(SineKAN)に置き換えるモデルを提案する。
我々は,B-Spline Kanモデルに匹敵する性能を示すとともに,周期的コサイン関数と正弦関数をベースとしたKAN実装を提案する。
論文 参考訳(メタデータ) (2024-07-04T20:53:19Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
ニューラルネットワークのような予測器のための新しいトレーニング原理であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決へのそれぞれの貢献に基づいて、個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分を補強し,有害な部分を弱めるという欲求的アプローチを実現する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - It's FLAN time! Summing feature-wise latent representations for
interpretability [0.0]
FLAN(Feature-wise Latent Additive Networks)と呼ばれる構造拘束型ニューラルネットワークの新たなクラスを提案する。
FLANは各入力機能を別々に処理し、それぞれに共通の潜在空間の表現を演算する。
これらの特徴的潜在表現は単純に要約され、集約された表現は予測に使用される。
論文 参考訳(メタデータ) (2021-06-18T12:19:33Z) - AI without networks [0.0]
我々は、生成モデリングを取り入れたAIのためのネットワークフリーフレームワークを開発する。
我々は、この枠組みを、民族学、制御理論、数学の3つの異なる分野の例で示す。
また、生成AIによる倫理的法的課題に対処するために、この枠組みに基づいて容易に計算された信用割当手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T05:50:02Z) - OGGN: A Novel Generalized Oracle Guided Generative Architecture for
Modelling Inverse Function of Artificial Neural Networks [0.6091702876917279]
本稿では,ANN(Artificial Neural Network)の逆関数を,完全にあるいは部分的にモデル化するための新しい生成ニューラルネットワークアーキテクチャを提案する。
OGGNと呼ばれる提案されたOracle Guided Generative Neural Networkは、さまざまな機能生成問題に柔軟に対応します。
この制約関数により、ニューラルネットワークは与えられた局所空間を長時間調査することができる。
論文 参考訳(メタデータ) (2021-04-08T17:28:52Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Controllable Orthogonalization in Training DNNs [96.1365404059924]
直交性はディープニューラルネットワーク(DNN)のトレーニングに広く用いられている。
本稿では,ニュートン反復(ONI)を用いた計算効率が高く,数値的に安定な直交化法を提案する。
本稿では,画像分類ネットワークの性能向上のために,最適化の利点と表現能力の低下との間に最適なトレードオフを与えるために,直交性を効果的に制御する手法を提案する。
また、ONIは、スペクトル正規化と同様に、ネットワークのリプシッツ連続性を維持することにより、GAN(Generative Adversarial Network)のトレーニングを安定化させることを示した。
論文 参考訳(メタデータ) (2020-04-02T10:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。