論文の概要: Model-Based Control with Sparse Neural Dynamics
- arxiv url: http://arxiv.org/abs/2312.12791v1
- Date: Wed, 20 Dec 2023 06:25:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 16:39:31.815711
- Title: Model-Based Control with Sparse Neural Dynamics
- Title(参考訳): スパースニューラルダイナミクスを用いたモデルベース制御
- Authors: Ziang Liu, Genggeng Zhou, Jeff He, Tobia Marcucci, Li Fei-Fei, Jiajun
Wu, Yunzhu Li
- Abstract要約: モデル学習と予測制御を統合した新しいフレームワークを提案する。
我々は,既存の最先端手法よりもクローズドループ性能を向上できることを示す。
- 参考スコア(独自算出の注目度): 23.961218902837807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning predictive models from observations using deep neural networks
(DNNs) is a promising new approach to many real-world planning and control
problems. However, common DNNs are too unstructured for effective planning, and
current control methods typically rely on extensive sampling or local gradient
descent. In this paper, we propose a new framework for integrated model
learning and predictive control that is amenable to efficient optimization
algorithms. Specifically, we start with a ReLU neural model of the system
dynamics and, with minimal losses in prediction accuracy, we gradually sparsify
it by removing redundant neurons. This discrete sparsification process is
approximated as a continuous problem, enabling an end-to-end optimization of
both the model architecture and the weight parameters. The sparsified model is
subsequently used by a mixed-integer predictive controller, which represents
the neuron activations as binary variables and employs efficient
branch-and-bound algorithms. Our framework is applicable to a wide variety of
DNNs, from simple multilayer perceptrons to complex graph neural dynamics. It
can efficiently handle tasks involving complicated contact dynamics, such as
object pushing, compositional object sorting, and manipulation of deformable
objects. Numerical and hardware experiments show that, despite the aggressive
sparsification, our framework can deliver better closed-loop performance than
existing state-of-the-art methods.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)を用いた観測から予測モデルを学ぶことは、多くの現実世界の計画と制御の問題に対する有望な新しいアプローチである。
しかし、一般的なDNNは効率的な計画を立てるには非構造的すぎるため、現在の制御方法は一般的に広範囲のサンプリングや局所的な勾配勾配に依存する。
本稿では,効率的な最適化アルゴリズムに適したモデル学習と予測制御のための新しいフレームワークを提案する。
具体的には,システムダイナミクスのreluニューラルモデルから始めて,予測精度の低下を最小限に抑えながら,冗長なニューロンを取り除いて徐々にスパース化する。
この離散スパーシフィケーションプロセスは連続問題として近似され、モデルアーキテクチャと重みパラメータの両方をエンドツーエンドに最適化することができる。
スパーシファイドモデルはその後、ニューロンの活性化をバイナリ変数として表現し、効率的な分岐・結合アルゴリズムを使用する混合整数予測制御器によって使用される。
我々のフレームワークは、単純な多層パーセプトロンから複雑なグラフニューラルダイナミクスまで、多種多様なDNNに適用できる。
オブジェクトプッシュ、コンポジションオブジェクトソート、変形可能なオブジェクトの操作など、複雑な接触ダイナミクスに関わるタスクを効率的に処理できる。
数値およびハードウェア実験により,攻撃的なスパシフィケーションにもかかわらず,我々のフレームワークは既存の最先端手法よりもクローズドループ性能を向上できることが示された。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Geometric sparsification in recurrent neural networks [0.8851237804522972]
本稿では,リカレントニューラルネット(RNN)のスペーサー化手法を提案する。
変調正則化は、様々な変調正則化器を持つより安定したRNNを誘導し、98%の間隔で高忠実度モデルを達成することを示す。
論文 参考訳(メタデータ) (2024-06-10T14:12:33Z) - Dynamically configured physics-informed neural network in topology
optimization applications [4.403140515138818]
物理インフォームドニューラルネットワーク(PINN)は、前方問題を解決する際に大量のデータを生成するのを避けることができる。
動的に構成された PINN-based Topology Optimization (DCPINN-TO) 法を提案する。
変位予測と最適化結果の精度は,DCPINN-TO法が効率的かつ効率的であることを示している。
論文 参考訳(メタデータ) (2023-12-12T05:35:30Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Near-optimal control of dynamical systems with neural ordinary
differential equations [0.0]
ディープラーニングとニューラルネットワークに基づく最適化の最近の進歩は、高次元力学系を含む制御問題を解くのに役立つ方法の開発に寄与している。
まず、時間を通して切り詰められた非切り抜きのバックプロパゲーションが、実行時のパフォーマンスとニューラルネットワークが最適な制御関数を学習する能力にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2022-06-22T14:11:11Z) - Gradient-Based Trajectory Optimization With Learned Dynamics [80.41791191022139]
データからシステムの微分可能なダイナミクスモデルを学習するために、機械学習技術を使用します。
ニューラルネットワークは、大規模な時間的地平線に対して、非常に非線形な振る舞いを正確にモデル化できることが示される。
ハードウェア実験において、学習したモデルがSpotとRadio- controlled (RC)の両方の複雑な力学を表現できることを実証した。
論文 参考訳(メタデータ) (2022-04-09T22:07:34Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Neural-iLQR: A Learning-Aided Shooting Method for Trajectory
Optimization [17.25824905485415]
制約のない制御空間上の学習支援シューティング手法であるNeural-iLQRを提案する。
システムモデルにおける不正確さの存在下で、従来のiLQRよりも著しく優れていることが示されている。
論文 参考訳(メタデータ) (2020-11-21T07:17:28Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Persistent Neurons [4.061135251278187]
本稿では,学習課題を最適化するトラジェクトリベースの戦略を提案する。
永続ニューロンは、決定論的誤差項によって個々の更新が破損する勾配情報バイアスを持つ方法とみなすことができる。
完全かつ部分的なパーシステンスモデルの評価を行い、NN構造における性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-07-02T22:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。