論文の概要: Facilitating Reinforcement Learning for Process Control Using Transfer Learning: Perspectives
- arxiv url: http://arxiv.org/abs/2404.00247v2
- Date: Wed, 1 May 2024 05:55:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-05-02 17:55:26.285636
- Title: Facilitating Reinforcement Learning for Process Control Using Transfer Learning: Perspectives
- Title(参考訳): 伝達学習を用いたプロセス制御のための強化学習のファシリテート:視点
- Authors: Runze Lin, Junghui Chen, Lei Xie, Hongye Su, Biao Huang,
- Abstract要約: 本稿では,伝達学習の観点からプロセス制御のための深層強化学習(DRL)の知見を提供する。
プロセス産業の分野でDRLを適用することの課題と、トランスファーラーニングの導入の必要性について分析する。
- 参考スコア(独自算出の注目度): 11.820381529066475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper provides insights into deep reinforcement learning (DRL) for process control from the perspective of transfer learning. We analyze the challenges of applying DRL in the field of process industries and the necessity of introducing transfer learning. Furthermore, recommendations and prospects are provided for future research directions on how transfer learning can be integrated with DRL to empower process control.
- Abstract(参考訳): 本稿では,伝達学習の観点からプロセス制御のための深層強化学習(DRL)の知見を提供する。
本稿では,プロセス産業分野におけるDRLの適用課題と転向学習の導入の必要性について分析する。
さらに、DRLと転写学習をどのように統合してプロセス制御を強化するかについて、今後の研究の方向性として推奨と展望が提供される。
関連論文リスト
- Towards Sample-Efficiency and Generalization of Transfer and Inverse Reinforcement Learning: A Comprehensive Literature Review [50.67937325077047]
本稿では,転送および逆強化学習(T-IRL)によるRLアルゴリズムのサンプル効率と一般化を実現するための総合的なレビューを行う。
以上の結果から,最近の研究成果の大部分は,人間のループとシム・トゥ・リアル戦略を活用することで,上記の課題に対処していることが示唆された。
IRL構造の下では、経験の少ない移行と、そのようなフレームワークのマルチエージェントおよびマルチインテンション問題への拡張を必要とするトレーニングスキームが近年研究者の優先事項となっている。
論文 参考訳(メタデータ) (2024-11-15T15:18:57Z) - GuideLight: "Industrial Solution" Guidance for More Practical Traffic Signal Control Agents [12.497518428553734]
強化学習(RL)に基づく交通信号制御(TSC)法は,従来の手法よりも優れていることが証明されている。
しかし、ほとんどのRL法は、入力、出力、サイクル-フロー関係という3つの要因により、実世界で適用した場合に困難に直面している。
我々は、RLエージェントをガイドする業界ソリューションを提案する。
論文 参考訳(メタデータ) (2024-07-15T15:26:10Z) - Enhancing IoT Intelligence: A Transformer-based Reinforcement Learning Methodology [10.878954933396155]
IoT(Internet of Things)は、相互接続されたデバイスによって生成されたデータの爆発的な増加につながっている。
従来の強化学習アプローチは、このデータを完全に活用するのに苦労することが多い。
本稿では,トランスフォーマーアーキテクチャと近似ポリシ最適化を統合した新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-05T16:30:45Z) - Hybrid Unsupervised Learning Strategy for Monitoring Industrial Batch Processes [0.0]
本稿では,複雑な産業プロセスを監視するためのハイブリッド型教師なし学習戦略(HULS)を提案する。
HULSの概念の性能を評価するために,実験室のバッチに基づいて比較実験を行った。
論文 参考訳(メタデータ) (2024-03-19T09:33:07Z) - Digital Twin Assisted Deep Reinforcement Learning for Online Admission
Control in Sliced Network [19.152875040151976]
この問題に対処するために、ディジタルツイン(DT)高速化DRLソリューションを提案する。
ニューラルネットワークベースのDTは、システムをキューイングするためのカスタマイズされた出力層を備え、教師付き学習を通じてトレーニングされ、DRLモデルのトレーニングフェーズを支援するために使用される。
DT加速DRLは、直接訓練された最先端Q-ラーニングモデルと比較して、リソース利用率を40%以上向上させる。
論文 参考訳(メタデータ) (2023-10-07T09:09:19Z) - Machine Learning Meets Advanced Robotic Manipulation [48.6221343014126]
本論文は、最先端技術と、実世界の操作タスクに適用された機械学習手法の最近の動向についてレビューする。
論文の残りの部分は、産業、医療、農業、宇宙、軍事、捜索救助など、さまざまな分野におけるML応用に費やされている。
論文 参考訳(メタデータ) (2023-09-22T01:06:32Z) - A Comprehensive Survey of Deep Transfer Learning for Anomaly Detection
in Industrial Time Series: Methods, Applications, and Directions [5.759456719890725]
産業プロセスの監視は、効率を高め、品質を最適化する可能性がある。
ディープラーニングは、大規模なデータセット内の非自明なパターンを識別する能力を持つため、このプロセスにおいて重要な役割を果たす。
わずかに異なるケースごとに、標準的なディープラーニングトレーニングのための大規模ラベル付きデータを取得することは不可能である。
深層移動学習はこの問題に対する解決策を提供する。
論文 参考訳(メタデータ) (2023-07-11T09:37:52Z) - Prioritized Trajectory Replay: A Replay Memory for Data-driven
Reinforcement Learning [52.49786369812919]
本稿では,サンプリング視点をトラジェクトリに拡張するメモリ技術である(Prioritized) Trajectory Replay (TR/PTR)を提案する。
TRは、その後の状態情報の使用を最適化するトラジェクトリの後方サンプリングによって学習効率を向上させる。
D4RL上の既存のオフラインRLアルゴリズムとTRとPTRを統合する利点を実証する。
論文 参考訳(メタデータ) (2023-06-27T14:29:44Z) - Supervised Pretraining Can Learn In-Context Reinforcement Learning [96.62869749926415]
本稿では,意思決定問題における変換器の文脈内学習能力について検討する。
本稿では,変換器が最適動作を予測する教師付き事前学習法であるDPT(Decision-Pretrained Transformer)を導入,研究する。
事前学習した変換器は、オンラインと保守主義の両方をオフラインで探索することで、コンテキスト内における様々なRL問題の解決に利用できる。
論文 参考訳(メタデータ) (2023-06-26T17:58:50Z) - Efficient Deep Reinforcement Learning Requires Regulating Overfitting [91.88004732618381]
本稿では,高時間差(TD)誤差が深部RLアルゴリズムの性能に悪影響を及ぼす主要な原因であることを示す。
検証TDエラーをターゲットとした簡単なオンラインモデル選択法は,状態ベースDMCおよびGymタスク間で有効であることを示す。
論文 参考訳(メタデータ) (2023-04-20T17:11:05Z) - On Transforming Reinforcement Learning by Transformer: The Development
Trajectory [97.79247023389445]
Transformerは元々自然言語処理用に開発されたもので、コンピュータビジョンでも大きな成功を収めている。
既存の開発をアーキテクチャ拡張と軌道最適化の2つのカテゴリに分類する。
ロボット操作,テキストベースのゲーム,ナビゲーション,自律運転におけるTRLの主な応用について検討する。
論文 参考訳(メタデータ) (2022-12-29T03:15:59Z) - Redefining Counterfactual Explanations for Reinforcement Learning:
Overview, Challenges and Opportunities [2.0341936392563063]
AIのほとんどの説明方法は、開発者とエキスパートユーザーに焦点を当てている。
ブラックボックスモデルの出力が変更されるための入力で何が変更されるのかについて、カウンターファクトな説明がユーザにアドバイスします。
カウンターファクトはユーザフレンドリで、AIシステムから望ましいアウトプットを達成するための実行可能なアドバイスを提供する。
論文 参考訳(メタデータ) (2022-10-21T09:50:53Z) - Transferred Q-learning [79.79659145328856]
我々は、目標強化学習(RL)タスクのサンプルと、異なるが関連するRLタスクのソースサンプルを用いて、知識伝達を伴うQ$ラーニングについて検討する。
オフラインのソーススタディを用いたバッチとオンラインの$Q$ラーニングのためのトランスファー学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-09T20:08:19Z) - Transferring Reinforcement Learning for DC-DC Buck Converter Control via
Duty Ratio Mapping: From Simulation to Implementation [0.0]
本稿では,DC-DCコンバータ用のデリケートに設計されたデューティ比マッピング(DRM)を用いた転送手法を提案する。
モデルフリー深部強化学習(DRL)コントローラの実装を可能にするために,詳細なsim-to-realプロセスを提案する。
論文 参考訳(メタデータ) (2021-10-20T11:08:17Z) - Knowledge Transfer in Multi-Task Deep Reinforcement Learning for
Continuous Control [65.00425082663146]
連続制御のための知識伝達に基づく多タスク深層強化学習フレームワーク(KTM-DRL)を提案する。
KTM-DRLでは、マルチタスクエージェントがまずオフラインの知識伝達アルゴリズムを利用して、タスク固有の教師の経験から制御ポリシーを素早く学習する。
実験結果は,KTM-DRLとその知識伝達とオンライン学習アルゴリズムの有効性を正当化するとともに,最先端技術よりも大きなマージンによる優位性を示した。
論文 参考訳(メタデータ) (2020-10-15T03:26:47Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - AI-based Modeling and Data-driven Evaluation for Smart Manufacturing
Processes [56.65379135797867]
本稿では,半導体製造プロセスに関する有用な知見を得るための動的アルゴリズムを提案する。
本稿では,遺伝的アルゴリズムとニューラルネットワークを利用して,知的特徴選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-29T14:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。