論文の概要: One-shot, Offline and Production-Scalable PID Optimisation with Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.13906v1
- Date: Tue, 25 Oct 2022 10:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:15:29.272626
- Title: One-shot, Offline and Production-Scalable PID Optimisation with Deep
Reinforcement Learning
- Title(参考訳): 深層強化学習によるワンショット・オフライン・生産型PID最適化
- Authors: Zacharaya Shabka, Michael Enrico, Nick Parsons, Georgios Zervas
- Abstract要約: PID制御は、97%以上の自動化産業プロセスの基盤となっている。
汎用システム特性の関係を学習する深層強化学習に基づく手法を提案する。
この方法は、最も困難な目標切換速度に該当するアクチュエータの数を5倍に改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Proportional-integral-derivative (PID) control underlies more than $97\%$ of
automated industrial processes. Controlling these processes effectively with
respect to some specified set of performance goals requires finding an optimal
set of PID parameters to moderate the PID loop. Tuning these parameters is a
long and exhaustive process. A method (patent pending) based on deep
reinforcement learning is presented that learns a relationship between generic
system properties (e.g. resonance frequency), a multi-objective performance
goal and optimal PID parameter values. Performance is demonstrated in the
context of a real optical switching product of the foremost manufacturer of
such devices globally. Switching is handled by piezoelectric actuators where
switching time and optical loss are derived from the speed and stability of
actuator-control processes respectively. The method achieves a $5\times$
improvement in the number of actuators that fall within the most challenging
target switching speed, $\geq 20\%$ improvement in mean switching speed at the
same optical loss and $\geq 75\%$ reduction in performance inconsistency when
temperature varies between 5 and 73 degrees celcius. Furthermore, once trained
(which takes $\mathcal{O}(hours)$), the model generates actuator-unique PID
parameters in a one-shot inference process that takes $\mathcal{O}(ms)$ in
comparison to up to $\mathcal{O}(week)$ required for conventional tuning
methods, therefore accomplishing these performance improvements whilst
achieving up to a $10^6\times$ speed-up. After training, the method can be
applied entirely offline, incurring effectively zero optimisation-overhead in
production.
- Abstract(参考訳): プロポーショナル・インテグレーショナル・デリバティブ(PID)制御は、9,7 %以上の自動化産業プロセスの基盤となっている。
特定のパフォーマンス目標に対してこれらのプロセスを効果的に制御するには、PIDループを適度にするために最適なPIDパラメータセットを見つける必要がある。
これらのパラメータのチューニングは長くて徹底的なプロセスです。
汎用システム特性(共鳴周波数など)、多目的性能目標、最適PIDパラメータ値の関係を学習するディープ強化学習に基づく手法(パテントペンディング)を提案する。
パフォーマンスは、世界最上位のデバイスメーカーの実際の光スイッチング製品の文脈で実証される。
スイッチングは、アクチュエータ制御プロセスの速度と安定性から切り換え時間と光損失をそれぞれ導出する圧電アクチュエータによって処理される。
この方法は、最も困難な目標スイッチング速度に該当するアクチュエータの数を5倍に改善し、同じ光学損失における平均スイッチング速度を平均20倍に改善し、温度が5度から73度の間で変化した場合、性能不整合を$5倍に削減する。
さらに、訓練すると($\mathcal{o}(hours)$ )、従来のチューニング法で$\mathcal{o}(week)$まで必要となる1ショットの推論プロセスでアクチュエータ-unique pidパラメータを生成し、最大10^6\times$のスピードアップを実現しながらこれらのパフォーマンス改善を達成する。
トレーニング後、このメソッドは完全にオフラインで適用でき、プロダクションで効率的に最適化・オーバーヘッドをゼロにできる。
関連論文リスト
- Progressive Mixed-Precision Decoding for Efficient LLM Inference [49.05448842542558]
我々は,デコーディングのメモリバウンドネスに対処するために,プログレッシブ・ミックス・プレシジョン・デコーディング(PMPD)を導入する。
PMPDはfp16モデルの行列ベクトル乗算において1.4$-$12.2$times$ Speedupを達成する。
我々の手法は、fp16モデルよりも3.8$-$8.0$times$、均一量子化アプローチよりも1.54$times$のスループット向上をもたらす。
論文 参考訳(メタデータ) (2024-10-17T11:46:33Z) - Propulsion: Steering LLM with Tiny Fine-Tuning [0.0]
本稿では,タスク固有性能を最適化するために,新しいパラメータ最適化手法であるPropulsionを提案する。
物理運動の制御調整の概念にインスパイアされた推進は、事前訓練されたモデルの特定の次元を選択的に再スケールする。
我々の理論解析はニューラル・タンジェント・カーネル(NTK)理論によって支えられ、推進は訓練可能なパラメータがはるかに少ない完全な微調整の性能を近似することを示している。
論文 参考訳(メタデータ) (2024-09-17T06:51:59Z) - ETHER: Efficient Finetuning of Large-Scale Models with Hyperplane Reflections [59.839926875976225]
本稿では,HypErplane Reflectionsによる高効率微調整を行うETHER変換ファミリを提案する。
特に,既存のPEFT法と極めて少ないパラメータで一致または性能を向上するEtheRと緩和ETHER+を導入する。
論文 参考訳(メタデータ) (2024-05-30T17:26:02Z) - Attention Prompt Tuning: Parameter-efficient Adaptation of Pre-trained
Models for Spatiotemporal Modeling [32.603558214472265]
本稿では,アクション認識などのビデオベースアプリケーションに対して,Attention Prompt Tuning(APT)を導入する。
APTは、バックボーンを凍結させながら微調整中にデータトークンとともに学習可能なプロンプトのセットを注入する。
提案手法は,FLOPとレイテンシを著しく低減するとともに,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:41Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - Dynamic PlenOctree for Adaptive Sampling Refinement in Explicit NeRF [6.135925201075925]
PlenOctree DOTは,シーンの複雑さの変化に対応するために,サンプル分布を適応的に改良する。
POTと比較して、私たちのDOTは視覚的品質を高め、パラメータを55.15ドル/68.84%以上削減し、NeRF合成とタンクにそれぞれ1.7/1.9 FPSを提供する。
論文 参考訳(メタデータ) (2023-07-28T06:21:42Z) - Self-Tuning PID Control via a Hybrid Actor-Critic-Based Neural Structure
for Quadcopter Control [0.0]
Proportional-Integrator-Derivative (PID) コントローラは、幅広い産業および実験プロセスで使用されている。
モデルパラメータの不確実性と外乱のため、Quadrotorsのような実際のシステムはより堅牢で信頼性の高いPIDコントローラを必要とする。
本研究では,Reinforcement-Learning-based Neural Networkを用いた自己調整型PIDコントローラについて検討した。
論文 参考訳(メタデータ) (2023-07-03T19:35:52Z) - Residual Prompt Tuning: Improving Prompt Tuning with Residual
Reparameterization [57.379285443780894]
Residual Prompt Tuningは,プロンプトチューニングの性能と安定性を大幅に向上させる,シンプルで効率的な手法である。
提案手法は,T5-Baseによるプロンプトチューニングよりも+7ポイント向上し,パフォーマンスを損なうことなく,プロンプト長を10倍短縮できることを示す。
論文 参考訳(メタデータ) (2023-05-06T05:35:14Z) - TempoRL: laser pulse temporal shape optimization with Deep Reinforcement
Learning [0.577478614918139]
高出力レーザー(HPL)の最適性能は、光-物質相互作用に関連する様々な実験タスクの成功に不可欠である。
伝統的に、HPLパラメータはブラックボックスの数値法に依存する自動化方式で最適化される。
モデルフリーのDeep Reinforcement Learning (DRL)は、HPLパフォーマンスを最適化するための有望な代替フレームワークを提供する。
論文 参考訳(メタデータ) (2023-04-20T22:15:27Z) - Sensitivity-Aware Visual Parameter-Efficient Fine-Tuning [91.5113227694443]
私たちは新しいビジュアルを提案します。
Sensuous-Aware Fine-Tuning (SPT) スキーム。
SPTはタスク固有の重要な位置にトレーニング可能なパラメータを割り当てる。
ダウンストリーム認識タスクの幅広い実験により,SPTは既存のPEFT法と相補的であることが示された。
論文 参考訳(メタデータ) (2023-03-15T12:34:24Z) - Learning to Efficiently Sample from Diffusion Probabilistic Models [49.58748345998702]
Denoising Diffusion Probabilistic Models (DDPM) は、様々な領域にわたる高忠実度サンプルと競合する対数類似度が得られる。
我々は,事前学習したDDPMに対して最適な離散時間スケジュールを求める,正確な動的プログラミングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T17:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。