論文の概要: Differentiable Agent-Based Simulation for Gradient-Guided
Simulation-Based Optimization
- arxiv url: http://arxiv.org/abs/2103.12476v1
- Date: Tue, 23 Mar 2021 11:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:40:07.754904
- Title: Differentiable Agent-Based Simulation for Gradient-Guided
Simulation-Based Optimization
- Title(参考訳): 微分可能なエージェントベースシミュレーションによる勾配誘導シミュレーションに基づく最適化
- Authors: Philipp Andelfinger
- Abstract要約: 勾配推定法は局所最適化に向けて最適化を行うのに利用できる。
高入力次元の信号タイミング最適化問題では、勾配に基づく手法の方がかなり優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulation-based optimization using agent-based models is typically carried
out under the assumption that the gradient describing the sensitivity of the
simulation output to the input cannot be evaluated directly. To still apply
gradient-based optimization methods, which efficiently steer the optimization
towards a local optimum, gradient estimation methods can be employed. However,
many simulation runs are needed to obtain accurate estimates if the input
dimension is large. Automatic differentiation (AD) is a family of techniques to
compute gradients of general programs directly. Here, we explore the use of AD
in the context of time-driven agent-based simulations. By substituting common
discrete model elements such as conditional branching with smooth
approximations, we obtain gradient information across discontinuities in the
model logic. On the example of microscopic traffic models and an epidemics
model, we study the fidelity and overhead of the differentiable models, as well
as the convergence speed and solution quality achieved by gradient-based
optimization compared to gradient-free methods. In traffic signal timing
optimization problems with high input dimension, the gradient-based methods
exhibit substantially superior performance. Finally, we demonstrate that the
approach enables gradient-based training of neural network-controlled
simulation entities embedded in the model logic.
- Abstract(参考訳): エージェントベースモデルを用いたシミュレーションに基づく最適化は、入力に対するシミュレーション出力の感度を記述する勾配を直接評価できないという仮定の下で行われる。
局所最適への最適化を効率的に行うグラデーションベース最適化法を引き続き適用し、グラデーション推定法を適用できるようにする。
しかし、入力次元が大きい場合の正確な推定を得るためには、多くのシミュレーション実行が必要である。
自動微分(automatic differentiation, aad)は、一般プログラムの勾配を直接計算する手法である。
本稿では、時間駆動エージェントベースシミュレーションにおけるADの利用について検討する。
条件分岐などの一般的な離散モデル要素をスムーズな近似で置換することにより、モデル論理における不連続性にまたがる勾配情報を得る。
微視的交通モデルと疫病モデルの例において、微分可能なモデルの忠実度とオーバーヘッド、勾配に基づく最適化による収束速度と解の質を、勾配のない手法と比較して検討する。
高入力次元の信号タイミング最適化問題では、勾配に基づく手法の方がかなり優れた性能を示す。
最後に,モデル論理に埋め込まれたニューラルネットワーク制御シミュレーションエンティティの勾配に基づくトレーニングを可能にすることを実証する。
関連論文リスト
- Automatic Gradient Estimation for Calibrating Crowd Models with Discrete Decision Making [0.0]
候補解の選択を規定する勾配は, サンプルシミュレーショントラジェクトリから算出される。
一般的な社会力モデルに基づく集団避難モデルの校正について考察する。
論文 参考訳(メタデータ) (2024-04-06T16:48:12Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Smoothing Methods for Automatic Differentiation Across Conditional
Branches [0.0]
スムース解釈(SI)は、プログラムの出力とガウス核との畳み込みを近似し、原理的にその出力を滑らかにする。
SIと自動微分(AD)を組み合わせることで、スムーズなプログラムの勾配を効率的に計算する。
本稿では,ADとサンプリングを組み合わせたスムーズなプログラムの勾配を推定することにより,基礎となる仮定を回避する新しいモンテカルロ推定法を提案する。
論文 参考訳(メタデータ) (2023-10-05T15:08:37Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Surrogate Neural Networks for Efficient Simulation-based Trajectory
Planning Optimization [28.292234483886947]
本稿では、ニューラルネットワークの形で代理モデルを用いて、参照軌道のシミュレーションに基づく最適化の計算時間を短縮する手法を提案する。
提案手法は,従来よりも74%優れた参照軌道が得られており,計算時間が大幅に短縮されることが明らかとなった。
論文 参考訳(メタデータ) (2023-03-30T15:44:30Z) - Efficient Differentiable Simulation of Articulated Bodies [89.64118042429287]
本稿では, 音素の効率的な微分可能シミュレーション法を提案する。
これにより、ボディダイナミクスを深層学習フレームワークに統合することが可能になる。
提案手法を用いて, 調音システムによる強化学習を高速化できることを示す。
論文 参考訳(メタデータ) (2021-09-16T04:48:13Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z) - Black-Box Optimization with Local Generative Surrogates [6.04055755718349]
物理学や工学などの分野において、多くのプロセスは難易度を持つ非微分可能シミュレータでモデル化される。
本稿では,パラメータ空間の局所的近傍におけるシミュレータを近似するために,深部生成モデルを導入する。
パラメータ空間に対するシミュレータの依存性が低次元部分多様体に制約されている場合、本手法はベースライン法よりも高速にミニマを実現する。
論文 参考訳(メタデータ) (2020-02-11T19:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。