論文の概要: DRL-Based Injection Molding Process Parameter Optimization for Adaptive and Profitable Production
- arxiv url: http://arxiv.org/abs/2505.10988v1
- Date: Fri, 16 May 2025 08:35:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.362948
- Title: DRL-Based Injection Molding Process Parameter Optimization for Adaptive and Profitable Production
- Title(参考訳): DRLを用いた適応生産のための射出成形プロセス最適化
- Authors: Joon-Young Kim, Jecheon Yu, Heekyu Kim, Seunghwa Ryu,
- Abstract要約: 本研究では, 射出成形におけるリアルタイムプロセス最適化のための新しい深部強化学習(DRL)フレームワークを提案する。
実際の製造コストを反映し、樹脂、モールド摩耗、電気価格を取り入れた利益関数が開発された。
実験により,DRLフレームワークは季節変動や運用変動に動的に適用可能であることが示された。
- 参考スコア(独自算出の注目度): 1.4343218844557677
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Plastic injection molding remains essential to modern manufacturing. However, optimizing process parameters to balance product quality and profitability under dynamic environmental and economic conditions remains a persistent challenge. This study presents a novel deep reinforcement learning (DRL)-based framework for real-time process optimization in injection molding, integrating product quality and profitability into the control objective. A profit function was developed to reflect real-world manufacturing costs, incorporating resin, mold wear, and electricity prices, including time-of-use variations. Surrogate models were constructed to predict product quality and cycle time, enabling efficient offline training of DRL agents using soft actor-critic (SAC) and proximal policy optimization (PPO) algorithms. Experimental results demonstrate that the proposed DRL framework can dynamically adapt to seasonal and operational variations, consistently maintaining product quality while maximizing profit. Compared to traditional optimization methods such as genetic algorithms, the DRL models achieved comparable economic performance with up to 135x faster inference speeds, making them well-suited for real-time applications. The framework's scalability and adaptability highlight its potential as a foundation for intelligent, data-driven decision-making in modern manufacturing environments.
- Abstract(参考訳): プラスチック射出成形は現代の製造に不可欠である。
しかしながら、動的環境および経済条件下での製品品質と収益性のバランスをとるためのプロセスパラメータの最適化は、依然として永続的な課題である。
本研究は, 射出成形におけるリアルタイムプロセス最適化のための新しい深層強化学習(DRL)フレームワークを提案する。
実際の製造コストを反映し、樹脂、モールド摩耗、電気価格を取り入れた利益関数が開発された。
サロゲートモデルは製品の品質とサイクルタイムを予測するために構築され、ソフトアクター・クリティック(SAC)アルゴリズムと近似ポリシー最適化(PPO)アルゴリズムを用いてDRLエージェントの効率的なオフライントレーニングを可能にした。
実験の結果,DRLフレームワークは季節・運用の変動に動的に適応し,生産品質を継続的に維持し,利益を最大化できることがわかった。
遺伝的アルゴリズムのような従来の最適化手法と比較して、DRLモデルは最大135倍高速な推論速度で同等の経済性能を達成し、リアルタイムアプリケーションに適している。
フレームワークのスケーラビリティと適応性は、現代の製造環境におけるインテリジェントでデータ駆動型の意思決定基盤としての可能性を強調している。
関連論文リスト
- Preference Optimization for Combinatorial Optimization Problems [54.87466279363487]
強化学習(Reinforcement Learning, RL)は、ニューラルネットワーク最適化のための強力なツールとして登場した。
大幅な進歩にもかかわらず、既存のRLアプローチは報酬信号の減少や大規模な行動空間における非効率な探索といった課題に直面している。
統計的比較モデルを用いて定量的報酬信号を定性的選好信号に変換する新しい手法であるPreference Optimizationを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:47:00Z) - Sample-Efficient Bayesian Transfer Learning for Online Machine Parameter Optimization [5.467297536043163]
本研究では,ベイズ最適化アルゴリズムを用いて,システム自体のマシンパラメータを最適化する手法を提案する。
既存のマシンデータを活用することで、最小限のイテレーションで最適点を特定するために、転送学習アプローチを使用する。
実世界における金属板の切削用レーザ機へのアプローチを検証した。
論文 参考訳(メタデータ) (2025-03-20T08:08:17Z) - Dynamic Rewarding with Prompt Optimization Enables Tuning-free Self-Alignment of Language Models [54.381650481255235]
我々は,Prompt Optimization (O) を用いた動的リワードによる自己アライメントのための新しいチューニング不要アプローチを提案する。
提案手法は,LLMを反復的に自己改善し,最適アライメント命令を作成可能な検索ベース最適化フレームワークを活用する。
近年の8つのLCMのオープンおよびクローズドソースに関する実証評価により,DRPOはアライメント性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-11-13T16:15:38Z) - Task-optimal data-driven surrogate models for eNMPC via differentiable simulation and optimization [42.72938925647165]
特定の制御タスクにおいて最適な性能を示すために,クープマンシュロゲートモデルのエンドツーエンド学習法を提案する。
我々は,既存の経済非線形モデル予測制御(eNMPC)のケーススタディにおいて,他のトレーニングアルゴリズムと比較することにより,本手法の性能を評価する。
論文 参考訳(メタデータ) (2024-03-21T14:28:43Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled Prescriptive Maintenance Framework [58.474610046294856]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - MFRL-BI: Design of a Model-free Reinforcement Learning Process Control
Scheme by Using Bayesian Inference [5.375049126954924]
プロセス制御方式の設計は、製造システムのばらつきを低減するために品質保証に不可欠である。
本稿では,モデルフリー強化学習(MFRL)手法を提案する。
論文 参考訳(メタデータ) (2023-09-17T08:18:55Z) - On Effective Scheduling of Model-based Reinforcement Learning [53.027698625496015]
実データ比率を自動的にスケジュールするAutoMBPOというフレームワークを提案する。
本稿ではまず,政策訓練における実データの役割を理論的に分析し,実際のデータの比率を徐々に高めれば,より優れた性能が得られることを示唆する。
論文 参考訳(メタデータ) (2021-11-16T15:24:59Z) - A Reinforcement Learning-based Economic Model Predictive Control
Framework for Autonomous Operation of Chemical Reactors [0.5735035463793008]
本研究では,非線形系のオンラインモデルパラメータ推定のためのEMPCとRLを統合するための新しいフレームワークを提案する。
最先端のRLアルゴリズムとEMPCスキームを最小限の修正で使用できます。
論文 参考訳(メタデータ) (2021-05-06T13:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。