論文の概要: Analysis and Design of Quadratic Neural Networks for Regression,
Classification, and Lyapunov Control of Dynamical Systems
- arxiv url: http://arxiv.org/abs/2207.13120v1
- Date: Tue, 26 Jul 2022 18:10:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 14:06:04.882642
- Title: Analysis and Design of Quadratic Neural Networks for Regression,
Classification, and Lyapunov Control of Dynamical Systems
- Title(参考訳): 動的システムの回帰・分類・リアプノフ制御のための二次ニューラルネットワークの解析と設計
- Authors: Luis Rodrigues and Sidney Givigi
- Abstract要約: 本稿では,2次ニューラルネットワークの解析と設計について述べる。
ネットワークにはいくつかの利点があり、最も重要なのはアーキテクチャが設計の副産物であり、アプリオリではないという事実である。
いくつかの例では、アプリケーションにおける二次ニューラルネットワークの有効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper addresses the analysis and design of quadratic neural networks,
which have been recently introduced in the literature, and their applications
to regression, classification, system identification and control of dynamical
systems. These networks offer several advantages, the most important of which
are the fact that the architecture is a by-product of the design and is not
determined a-priori, their training can be done by solving a convex
optimization problem so that the global optimum of the weights is achieved, and
the input-output mapping can be expressed analytically by a quadratic form. It
also appears from several examples that these networks work extremely well
using only a small fraction of the training data. The results in the paper cast
regression, classification, system identification, stability and control design
as convex optimization problems, which can be solved efficiently with
polynomial-time algorithms to a global optimum. Several examples will show the
effectiveness of quadratic neural networks in applications.
- Abstract(参考訳): 本稿では,最近文献に紹介されている2次ニューラルネットワークの解析と設計について論じ,その回帰,分類,システム同定,動的システムの制御への応用について述べる。
これらのネットワークにはいくつかの利点があり、最も重要なのはアーキテクチャが設計の副産物であり、アプリオリではないという事実であり、そのトレーニングは凸最適化問題を解くことで行うことができ、重量の大域的最適化が達成され、入力出力マッピングは二次形式で解析的に表現することができる。
また、いくつかの例から、これらのネットワークはトレーニングデータのごく一部しか使っていないことが分かる。
その結果, コンベックス最適化問題としてのキャスト回帰, 分類, システム同定, 安定性, 制御設計が, 多項式時間アルゴリズムで効率よく大域的最適に解けることがわかった。
応用における二次ニューラルネットワークの有効性を示すいくつかの例がある。
関連論文リスト
- Least Squares Training of Quadratic Convolutional Neural Networks with Applications to System Theory [0.0]
本稿では,2層畳み込みニューラルネットワークのトレーニングのための最小2乗の定式化について述べる。
ネットワークの2次入力出力方程式とともに,大域的最適重みの解析式を得る。
論文 参考訳(メタデータ) (2024-11-13T00:42:40Z) - Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Graph Reinforcement Learning for Network Control via Bi-Level
Optimization [37.00510744883984]
我々は、データ駆動戦略がこのプロセスを自動化し、最適性を損なうことなく効率的なアルゴリズムを学習できると主張している。
我々は、強化学習のレンズを通してネットワーク制御の問題を提示し、幅広い問題に対処するグラフネットワークベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-16T03:20:22Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Efficient and Sparse Neural Networks by Pruning Weights in a
Multiobjective Learning Approach [0.0]
本稿では、予測精度とネットワーク複雑性を2つの個別目的関数として扱うことにより、ニューラルネットワークのトレーニングに関する多目的視点を提案する。
模範的畳み込みニューラルネットワークの予備的な数値結果から、ニューラルネットワークの複雑性の大幅な低減と精度の低下が可能であることが確認された。
論文 参考訳(メタデータ) (2020-08-31T13:28:03Z) - DynNet: Physics-based neural architecture design for linear and
nonlinear structural response modeling and prediction [2.572404739180802]
本研究では,線形および非線形な多自由度系の力学を学習できる物理に基づくリカレントニューラルネットワークモデルを提案する。
このモデルは、変位、速度、加速度、内部力を含む完全な応答のセットを推定することができる。
論文 参考訳(メタデータ) (2020-07-03T17:05:35Z) - On the Difficulty of Designing Processor Arrays for Deep Neural Networks [0.0]
カムーイ (Camuy) は、線形代数演算のための重み付き定常シストリックアレイの軽量モデルである。
本稿では,必要サイクル,データ移動コスト,およびシストリックアレイの利用率を推定する方法を説明するために,人気モデルの解析を行う。
論文 参考訳(メタデータ) (2020-06-24T19:24:08Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。