論文の概要: One-shot, Offline and Production-Scalable PID Optimisation with Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.13906v1
- Date: Tue, 25 Oct 2022 10:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:15:29.272626
- Title: One-shot, Offline and Production-Scalable PID Optimisation with Deep
Reinforcement Learning
- Title(参考訳): 深層強化学習によるワンショット・オフライン・生産型PID最適化
- Authors: Zacharaya Shabka, Michael Enrico, Nick Parsons, Georgios Zervas
- Abstract要約: PID制御は、97%以上の自動化産業プロセスの基盤となっている。
汎用システム特性の関係を学習する深層強化学習に基づく手法を提案する。
この方法は、最も困難な目標切換速度に該当するアクチュエータの数を5倍に改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Proportional-integral-derivative (PID) control underlies more than $97\%$ of
automated industrial processes. Controlling these processes effectively with
respect to some specified set of performance goals requires finding an optimal
set of PID parameters to moderate the PID loop. Tuning these parameters is a
long and exhaustive process. A method (patent pending) based on deep
reinforcement learning is presented that learns a relationship between generic
system properties (e.g. resonance frequency), a multi-objective performance
goal and optimal PID parameter values. Performance is demonstrated in the
context of a real optical switching product of the foremost manufacturer of
such devices globally. Switching is handled by piezoelectric actuators where
switching time and optical loss are derived from the speed and stability of
actuator-control processes respectively. The method achieves a $5\times$
improvement in the number of actuators that fall within the most challenging
target switching speed, $\geq 20\%$ improvement in mean switching speed at the
same optical loss and $\geq 75\%$ reduction in performance inconsistency when
temperature varies between 5 and 73 degrees celcius. Furthermore, once trained
(which takes $\mathcal{O}(hours)$), the model generates actuator-unique PID
parameters in a one-shot inference process that takes $\mathcal{O}(ms)$ in
comparison to up to $\mathcal{O}(week)$ required for conventional tuning
methods, therefore accomplishing these performance improvements whilst
achieving up to a $10^6\times$ speed-up. After training, the method can be
applied entirely offline, incurring effectively zero optimisation-overhead in
production.
- Abstract(参考訳): プロポーショナル・インテグレーショナル・デリバティブ(PID)制御は、9,7 %以上の自動化産業プロセスの基盤となっている。
特定のパフォーマンス目標に対してこれらのプロセスを効果的に制御するには、PIDループを適度にするために最適なPIDパラメータセットを見つける必要がある。
これらのパラメータのチューニングは長くて徹底的なプロセスです。
汎用システム特性(共鳴周波数など)、多目的性能目標、最適PIDパラメータ値の関係を学習するディープ強化学習に基づく手法(パテントペンディング)を提案する。
パフォーマンスは、世界最上位のデバイスメーカーの実際の光スイッチング製品の文脈で実証される。
スイッチングは、アクチュエータ制御プロセスの速度と安定性から切り換え時間と光損失をそれぞれ導出する圧電アクチュエータによって処理される。
この方法は、最も困難な目標スイッチング速度に該当するアクチュエータの数を5倍に改善し、同じ光学損失における平均スイッチング速度を平均20倍に改善し、温度が5度から73度の間で変化した場合、性能不整合を$5倍に削減する。
さらに、訓練すると($\mathcal{o}(hours)$ )、従来のチューニング法で$\mathcal{o}(week)$まで必要となる1ショットの推論プロセスでアクチュエータ-unique pidパラメータを生成し、最大10^6\times$のスピードアップを実現しながらこれらのパフォーマンス改善を達成する。
トレーニング後、このメソッドは完全にオフラインで適用でき、プロダクションで効率的に最適化・オーバーヘッドをゼロにできる。
関連論文リスト
- Attention Prompt Tuning: Parameter-efficient Adaptation of Pre-trained
Models for Spatiotemporal Modeling [32.603558214472265]
本稿では,アクション認識などのビデオベースアプリケーションに対して,Attention Prompt Tuning(APT)を導入する。
APTは、バックボーンを凍結させながら微調整中にデータトークンとともに学習可能なプロンプトのセットを注入する。
提案手法は,FLOPとレイテンシを著しく低減するとともに,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:41Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - Dynamic PlenOctree for Adaptive Sampling Refinement in Explicit NeRF [6.135925201075925]
PlenOctree DOTは,シーンの複雑さの変化に対応するために,サンプル分布を適応的に改良する。
POTと比較して、私たちのDOTは視覚的品質を高め、パラメータを55.15ドル/68.84%以上削減し、NeRF合成とタンクにそれぞれ1.7/1.9 FPSを提供する。
論文 参考訳(メタデータ) (2023-07-28T06:21:42Z) - Self-Tuning PID Control via a Hybrid Actor-Critic-Based Neural Structure
for Quadcopter Control [0.0]
Proportional-Integrator-Derivative (PID) コントローラは、幅広い産業および実験プロセスで使用されている。
モデルパラメータの不確実性と外乱のため、Quadrotorsのような実際のシステムはより堅牢で信頼性の高いPIDコントローラを必要とする。
本研究では,Reinforcement-Learning-based Neural Networkを用いた自己調整型PIDコントローラについて検討した。
論文 参考訳(メタデータ) (2023-07-03T19:35:52Z) - Constraint-aware and Ranking-distilled Token Pruning for Efficient
Transformer Inference [18.308180927492643]
ToPは、未精製モデルの最終層から初期精製モデルまで有効なトークンランキングを蒸留する、希釈型トークン蒸留技術である。
ToPは、GLUE上での競合精度を達成しつつ、BERTの平均FLOPを8.1倍削減し、Intel CPU上では7.4倍の遅延速度を提供する。
論文 参考訳(メタデータ) (2023-06-26T03:06:57Z) - Residual Prompt Tuning: Improving Prompt Tuning with Residual
Reparameterization [57.379285443780894]
Residual Prompt Tuningは,プロンプトチューニングの性能と安定性を大幅に向上させる,シンプルで効率的な手法である。
提案手法は,T5-Baseによるプロンプトチューニングよりも+7ポイント向上し,パフォーマンスを損なうことなく,プロンプト長を10倍短縮できることを示す。
論文 参考訳(メタデータ) (2023-05-06T05:35:14Z) - TempoRL: laser pulse temporal shape optimization with Deep Reinforcement
Learning [0.577478614918139]
高出力レーザー(HPL)の最適性能は、光-物質相互作用に関連する様々な実験タスクの成功に不可欠である。
伝統的に、HPLパラメータはブラックボックスの数値法に依存する自動化方式で最適化される。
モデルフリーのDeep Reinforcement Learning (DRL)は、HPLパフォーマンスを最適化するための有望な代替フレームワークを提供する。
論文 参考訳(メタデータ) (2023-04-20T22:15:27Z) - Sensitivity-Aware Visual Parameter-Efficient Fine-Tuning [91.5113227694443]
私たちは新しいビジュアルを提案します。
Sensuous-Aware Fine-Tuning (SPT) スキーム。
SPTはタスク固有の重要な位置にトレーニング可能なパラメータを割り当てる。
ダウンストリーム認識タスクの幅広い実験により,SPTは既存のPEFT法と相補的であることが示された。
論文 参考訳(メタデータ) (2023-03-15T12:34:24Z) - Tuning Particle Accelerators with Safety Constraints using Bayesian
Optimization [73.94660141019764]
粒子加速器の機械パラメータのチューニングは反復的で時間を要する作業である。
我々は、安全なベイズ最適化のステップサイズ制限版を提案し、評価する。
論文 参考訳(メタデータ) (2022-03-26T02:21:03Z) - Learning to Efficiently Sample from Diffusion Probabilistic Models [49.58748345998702]
Denoising Diffusion Probabilistic Models (DDPM) は、様々な領域にわたる高忠実度サンプルと競合する対数類似度が得られる。
我々は,事前学習したDDPMに対して最適な離散時間スケジュールを求める,正確な動的プログラミングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T17:15:07Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。