論文の概要: Neural Abstraction-Based Controller Synthesis and Deployment
- arxiv url: http://arxiv.org/abs/2307.03783v1
- Date: Fri, 7 Jul 2023 18:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 17:37:54.028824
- Title: Neural Abstraction-Based Controller Synthesis and Deployment
- Title(参考訳): 神経抽象化に基づく制御器の合成と展開
- Authors: Rupak Majumdar, Mahmoud Salamati and Sadegh Soudjani
- Abstract要約: 抽象化ベースのテクニックをうまく応用するための主要なボトルネックは、メモリ要件である。
本稿では,ニューラルネットワーク表現を用いた抽象化手法の高メモリ要求を緩和するメモリ効率向上手法を提案する。
- 参考スコア(独自算出の注目度): 5.263910852465185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abstraction-based techniques are an attractive approach for synthesizing
correct-by-construction controllers to satisfy high-level temporal
requirements. A main bottleneck for successful application of these techniques
is the memory requirement, both during controller synthesis and in controller
deployment.
We propose memory-efficient methods for mitigating the high memory demands of
the abstraction-based techniques using neural network representations. To
perform synthesis for reach-avoid specifications, we propose an on-the-fly
algorithm that relies on compressed neural network representations of the
forward and backward dynamics of the system. In contrast to usual applications
of neural representations, our technique maintains soundness of the end-to-end
process. To ensure this, we correct the output of the trained neural network
such that the corrected output representations are sound with respect to the
finite abstraction. For deployment, we provide a novel training algorithm to
find a neural network representation of the synthesized controller and
experimentally show that the controller can be correctly represented as a
combination of a neural network and a look-up table that requires a
substantially smaller memory.
We demonstrate experimentally that our approach significantly reduces the
memory requirements of abstraction-based methods. For the selected benchmarks,
our approach reduces the memory requirements respectively for the synthesis and
deployment by a factor of $1.31\times 10^5$ and $7.13\times 10^3$ on average,
and up to $7.54\times 10^5$ and $3.18\times 10^4$. Although this reduction is
at the cost of increased off-line computations to train the neural networks,
all the steps of our approach are parallelizable and can be implemented on
machines with higher number of processing units to reduce the required
computational time.
- Abstract(参考訳): 抽象化に基づく手法は、高レベルの時間的要求を満たすために正しい構成制御を合成するための魅力的なアプローチである。
これらのテクニックをうまく応用するための主要なボトルネックは、コントローラ合成とコントローラ配置の両方において、メモリ要件である。
本稿では,ニューラルネットワーク表現を用いた抽象化手法の高メモリ要求を緩和するメモリ効率向上手法を提案する。
到達回避仕様の合成を行うために,システムの前方および後方ダイナミクスの圧縮ニューラルネットワーク表現に依存するオンザフライアルゴリズムを提案する。
ニューラル表現の通常の応用とは対照的に,本手法はエンドツーエンドプロセスの健全性を維持する。
これを保証するため、トレーニングされたニューラルネットワークの出力を補正し、補正された出力表現が有限抽象に対して健全であるようにする。
デプロイメントのために、我々は、合成されたコントローラのニューラルネットワーク表現を見つけるための新しいトレーニングアルゴリズムを提供し、そのコントローラが、かなり小さなメモリを必要とするニューラルネットワークとルックアップテーブルの組み合わせとして正しく表現できることを実験的に示す。
提案手法は,抽象的手法のメモリ要求を大幅に低減することを示した。
選択したベンチマークでは、合成と配置のメモリ要件を平均1.31\times 10^5$と7.13\times 10^3$、最大7.54\times 10^5$と3.18\times 10^4$でそれぞれ削減する。
この削減は、ニューラルネットワークをトレーニングするためのオフライン計算の増加のコストであるが、我々のアプローチのすべてのステップは並列化可能であり、必要な計算時間を短縮するために、より多くの処理ユニットを持つマシンに実装することができる。
関連論文リスト
- Generalizable Neural Fields as Partially Observed Neural Processes [16.202109517569145]
本稿では,ニューラル表現の大規模トレーニングを部分的に観察されたニューラルプロセスフレームワークの一部として考える新しいパラダイムを提案する。
このアプローチは、最先端の勾配に基づくメタラーニングアプローチとハイパーネットワークアプローチの両方より優れていることを実証する。
論文 参考訳(メタデータ) (2023-09-13T01:22:16Z) - Split-Boost Neural Networks [1.1549572298362787]
本稿では,スプリットブートと呼ばれるフィードフォワードアーキテクチャの革新的なトレーニング戦略を提案する。
このような新しいアプローチは、最終的に正規化項を明示的にモデル化することを避けることができる。
提案した戦略は、ベンチマーク医療保険設計問題内の実世界の(匿名化された)データセットでテストされる。
論文 参考訳(メタデータ) (2023-09-06T17:08:57Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Convergence and scaling of Boolean-weight optimization for hardware
reservoirs [0.0]
我々は、ランダムにリカレント接続されたニューラルネットワークの読み出し層を最適化するために、高効率なコーディネートDescentのスケーリング法則を解析的に導出した。
本結果は,概念実証実験で実施した大規模フォトニック貯水池の収束とスケーリングを完璧に再現するものである。
論文 参考訳(メタデータ) (2023-05-13T12:15:25Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Towards Lightweight Controllable Audio Synthesis with Conditional
Implicit Neural Representations [10.484851004093919]
入射神経表現(英語: Implicit Neural representations、INR)は、低次元関数を近似するニューラルネットワークである。
本研究では、音声合成のための生成フレームワークの軽量バックボーンとして、CINR(Conditional Implicit Neural Representations)の可能性に光を当てた。
論文 参考訳(メタデータ) (2021-11-14T13:36:18Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Enabling Binary Neural Network Training on the Edge [7.32770338248516]
既存のバイナリニューラルネットワークトレーニング手法では、すべてのレイヤに対して高精度なアクティベーションを同時に保存する必要がある。
本稿では,メモリフットプリントの大幅な削減を図った,低コストなバイナリニューラルネットワークトレーニング戦略を提案する。
また、2ナライズされたResNet-18のin-scratch ImageNetトレーニングも実施し、3.78$times$メモリ削減を実現した。
論文 参考訳(メタデータ) (2021-02-08T15:06:41Z) - AutoInt: Automatic Integration for Fast Neural Volume Rendering [51.46232518888791]
暗黙的ニューラル表現ネットワークを用いて、積分に対する効率的でクローズドな解を学習するための新しいフレームワークを提案する。
我々は,高速なニューラルボリュームレンダリングを実現するために,フォトリアリスティックな要件を10倍以上に改善したことを示す。
論文 参考訳(メタデータ) (2020-12-03T05:46:10Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。