論文の概要: Neural network architectures using min plus algebra for solving certain
high dimensional optimal control problems and Hamilton-Jacobi PDEs
- arxiv url: http://arxiv.org/abs/2105.03336v1
- Date: Fri, 7 May 2021 15:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 15:28:24.324314
- Title: Neural network architectures using min plus algebra for solving certain
high dimensional optimal control problems and Hamilton-Jacobi PDEs
- Title(参考訳): 高次元最適制御問題とハミルトン・ヤコビPDEを解くためにminプラス代数を用いたニューラルネットワークアーキテクチャ
- Authors: J\'er\^ome Darbon and Peter M. Dower and Tingwei Meng
- Abstract要約: 本稿では,高次元最適制御問題のクラスに対する最適制御の値関数と状態フィードバック特性をそれぞれ表現する2つの抽象的ニューラルネットワークアーキテクチャを提案する。
この研究は、ニューラルネットワーク用に設計された効率的な専用ハードウェアを活用して、高次元最適制御問題とハミルトン・ヤコビPDEを解く方法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solving high dimensional optimal control problems and corresponding
Hamilton-Jacobi PDEs are important but challenging problems in control
engineering. In this paper, we propose two abstract neural network
architectures which respectively represent the value function and the state
feedback characterisation of the optimal control for certain class of high
dimensional optimal control problems. We provide the mathematical analysis for
the two abstract architectures. We also show several numerical results computed
using the deep neural network implementations of these abstract architectures.
This work paves the way to leverage efficient dedicated hardware designed for
neural networks to solve high dimensional optimal control problems and
Hamilton-Jacobi PDEs.
- Abstract(参考訳): 高次元最適制御問題と対応するハミルトン・ヤコビPDEを解くことは、制御工学において重要であるが難しい。
本稿では,高次元最適制御問題のクラスにおける最適制御の値関数と状態フィードバック特性をそれぞれ表現する2つの抽象ニューラルネットワークアーキテクチャを提案する。
2つの抽象アーキテクチャの数学的解析を提供する。
また、これらの抽象アーキテクチャのディープニューラルネットワーク実装を用いて計算した数値結果についても示す。
この研究は、ニューラルネットワーク用に設計された効率的な専用ハードウェアを活用して、高次元最適制御問題とハミルトン・ヤコビPDEを解く方法である。
関連論文リスト
- Neuromorphic quadratic programming for efficient and scalable model predictive control [0.31457219084519]
イベントベースおよびメモリ統合ニューロモルフィックアーキテクチャは、大規模な最適化問題を解決することを約束する。
本稿では,Intel のスケーラブルなニューロモルフィック研究チップ Loihi 2 上での2次コスト関数と線形制約を用いた凸連続最適化問題の解法を提案する。
論文 参考訳(メタデータ) (2024-01-26T14:12:35Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Connections between Numerical Algorithms for PDEs and Neural Networks [8.660429288575369]
偏微分方程式(PDE)とニューラルネットワークの数値アルゴリズム間の多数の構造的関係について検討する。
私たちのゴールは、豊富な数学的基礎をPDEの世界からニューラルネットワークに移すことです。
論文 参考訳(メタデータ) (2021-07-30T16:42:45Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - On the performance of deep learning for numerical optimization: an
application to protein structure prediction [0.0]
本稿では,グローバルな最適化問題に対処するディープラーニングモデルの性能について述べる。
提案手法は、効率的なニューラルネットワークを生成するために、NAS(Neural Architecture Search)の概念を採用する。
実験により、手書きのアルゴリズムと比較して、生成された学習モデルが競合する結果が得られることが明らかになった。
論文 参考訳(メタデータ) (2020-12-17T17:01:30Z) - Neural Architecture Search of SPD Manifold Networks [79.45110063435617]
本研究では,Symmetric Positive Definite (SPD) 多様体ネットワークのニューラルアーキテクチャ探索(NAS)問題を提案する。
まず、効率的なSPDセル設計のために、幾何学的にリッチで多様なSPDニューラルアーキテクチャ探索空間を導入する。
我々は、SPDニューラルアーキテクチャ探索のための緩和された連続探索空間上で微分可能なNASアルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-10-27T18:08:57Z) - Graph Neural Networks for Scalable Radio Resource Management:
Architecture Design and Theoretical Analysis [31.372548374969387]
本稿では,大規模無線資源管理問題にグラフニューラルネットワーク(GNN)を適用することを提案する。
提案手法はスケーラビリティが高く,1つのGPU上で1,000ドルのトランシーバペアを6ミリ秒以内で行う干渉チャネルにおけるビームフォーミング問題を解くことができる。
論文 参考訳(メタデータ) (2020-07-15T11:43:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。