論文の概要: A Reinforcement Learning Approach for Process Parameter Optimization in
Additive Manufacturing
- arxiv url: http://arxiv.org/abs/2211.09545v1
- Date: Thu, 17 Nov 2022 14:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:17:56.936769
- Title: A Reinforcement Learning Approach for Process Parameter Optimization in
Additive Manufacturing
- Title(参考訳): 添加物製造におけるプロセスパラメータ最適化のための強化学習手法
- Authors: Susheel Dharmadhikari, Nandana Menon, Amrita Basak
- Abstract要約: 本稿では,金属添加物製造分野における最適化問題に転換した強化学習(RL)手法を紹介する。
実験的に検証されたEagar-Tsaiの定式化は、レーザー指向のエネルギー沈着環境をエミュレートするために用いられる。
したがって、このフレームワークは、事前の観察なしに学習するためのモデルなしのアプローチを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Process optimization for metal additive manufacturing (AM) is crucial to
ensure repeatability, control microstructure, and minimize defects. Despite
efforts to address this via the traditional design of experiments and
statistical process mapping, there is limited insight on an on-the-fly
optimization framework that can be integrated into a metal AM system.
Additionally, most of these methods, being data-intensive, cannot be supported
by a metal AM alloy or system due to budget restrictions. To tackle this issue,
the article introduces a Reinforcement Learning (RL) methodology transformed
into an optimization problem in the realm of metal AM. An off-policy RL
framework based on Q-learning is proposed to find optimal laser power ($P$) -
scan velocity ($v$) combinations with the objective of maintaining steady-state
melt pool depth. For this, an experimentally validated Eagar-Tsai formulation
is used to emulate the Laser-Directed Energy Deposition environment, where the
laser operates as the agent across the $P-v$ space such that it maximizes
rewards for a melt pool depth closer to the optimum. The culmination of the
training process yields a Q-table where the state ($P,v$) with the highest
Q-value corresponds to the optimized process parameter. The resultant melt pool
depths and the mapping of Q-values to the $P-v$ space show congruence with
experimental observations. The framework, therefore, provides a model-free
approach to learning without any prior.
- Abstract(参考訳): 金属添加物製造(AM)のプロセス最適化は、繰り返し性の確保、微細構造制御、欠陥の最小化に不可欠である。
従来の実験設計や統計的プロセスマッピングを通じてこの問題に対処する努力にもかかわらず、オンザフライ最適化フレームワークに関する限られた洞察は、金属AMシステムに統合できる。
さらに、これらの手法の多くは、データ集約型であり、予算制限のため、金属AM合金やシステムでは支持できない。
この問題に対処するために、金属AM領域における最適化問題に変換された強化学習(RL)手法を提案する。
定常溶融プール深さを維持する目的で, 最適レーザーパワー(P$)スキャン速度(v$)の組み合わせを求めるために, Q-ラーニングに基づくオフポリチィRLフレームワークを提案する。
このために、実験的に検証されたeagar-tsai定式化は、レーザー指向のエネルギー沈着環境をエミュレートするために使用され、そこでレーザーは、最適に近いメルトプール深さに対する報酬を最大化するように、$p-v$空間を横切るエージェントとして作用する。
トレーニングプロセスの終了は、最も高いQ値を持つ状態(P,v$)が最適化されたプロセスパラメータに対応するQテーブルが得られる。
溶融プール深さとQ値の$P-v$空間へのマッピングは実験結果と一致している。
したがって、このフレームワークは、事前の学習なしに、モデルなしのアプローチを提供する。
関連論文リスト
- Scalable Online Exploration via Coverability [51.32148652451376]
探索は、特に関数近似を必要とする高次元領域において、強化学習において大きな課題である。
従来の探索手法を一般化し,3つの基本デシラタをサポートする新しい目的である$L_Coverageを導入する。
$L_Coverageは、カバー可能性の低いMDPにおけるオンライン(リワードフリーまたは報酬駆動)強化学習のための、最初の計算効率のよいモデルベースおよびモデルフリーのアルゴリズムを可能にする。
論文 参考訳(メタデータ) (2024-03-11T10:14:06Z) - Entropy-Regularized Token-Level Policy Optimization for Large Language
Models [76.02428537504323]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
その結果,ETPO は CodeLlama-7B モデルで有効な性能向上を実現し,RLHF から受け継いだ変種 PPO ベースラインを超越していることがわかった。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Large Language Models to Enhance Bayesian Optimization [57.474613739645605]
本稿では,大規模言語モデル(LLM)の能力をベイズ最適化に組み込む新しいアプローチであるLLAMBOを提案する。
高いレベルでは、自然言語のBO問題を枠組み化し、LLMが歴史的評価に照らした有望な解を反復的に提案し、評価することを可能にする。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T11:44:06Z) - Model-aware reinforcement learning for high-performance Bayesian
experimental design in quantum metrology [0.5461938536945721]
量子センサは、様々なパラメータにわたる実験者による操作を可能にすることで、推定中に制御の柔軟性を提供する。
量子力学、推定、仮説テストにおいて、幅広い問題を最適化できる汎用的な手順を導入する。
粒子フィルタリングに基づくモデル認識強化学習(RL)とベイズ推定を組み合わせた。
論文 参考訳(メタデータ) (2023-12-28T12:04:15Z) - Landscape-Sketch-Step: An AI/ML-Based Metaheuristic for Surrogate
Optimization Problems [0.0]
コスト関数の広範囲な評価が高価で、アクセス不能、あるいは禁止されるシナリオにおいて、グローバルな最適化のための新しいアルゴリズムを導入する。
この手法はLandscape-Sketch-and-Step (LSS)と呼ばれ、機械学習、レプリカ最適化、強化学習技術を組み合わせたものである。
論文 参考訳(メタデータ) (2023-09-14T01:53:45Z) - Reduced Order Modeling of a MOOSE-based Advanced Manufacturing Model
with Operator Learning [2.517043342442487]
先進的製造(AM)は、核材料への潜在的な応用について、原子力コミュニティに多大な関心を集めている。
1つの課題は、実行時に製造プロセスを制御することによって、望ましい材料特性を得ることである。
深部強化学習(DRL)に基づくインテリジェントAMは、最適な設計変数を生成するためのプロセスレベルの自動制御機構に依存している。
論文 参考訳(メタデータ) (2023-08-18T17:38:00Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - TempoRL: laser pulse temporal shape optimization with Deep Reinforcement
Learning [0.577478614918139]
高出力レーザー(HPL)の最適性能は、光-物質相互作用に関連する様々な実験タスクの成功に不可欠である。
伝統的に、HPLパラメータはブラックボックスの数値法に依存する自動化方式で最適化される。
モデルフリーのDeep Reinforcement Learning (DRL)は、HPLパフォーマンスを最適化するための有望な代替フレームワークを提供する。
論文 参考訳(メタデータ) (2023-04-20T22:15:27Z) - An Experimental Design Perspective on Model-Based Reinforcement Learning [73.37942845983417]
環境からの状態遷移を観察するのは費用がかかる。
標準RLアルゴリズムは通常、学習するために多くの観測を必要とする。
本稿では,マルコフ決定過程について,状態-作用対がどの程度の情報を提供するかを定量化する獲得関数を提案する。
論文 参考訳(メタデータ) (2021-12-09T23:13:57Z) - A Reinforcement Learning-based Economic Model Predictive Control
Framework for Autonomous Operation of Chemical Reactors [0.5735035463793008]
本研究では,非線形系のオンラインモデルパラメータ推定のためのEMPCとRLを統合するための新しいフレームワークを提案する。
最先端のRLアルゴリズムとEMPCスキームを最小限の修正で使用できます。
論文 参考訳(メタデータ) (2021-05-06T13:34:30Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。