論文の概要: A Reinforcement Learning Approach for Process Parameter Optimization in
Additive Manufacturing
- arxiv url: http://arxiv.org/abs/2211.09545v1
- Date: Thu, 17 Nov 2022 14:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:17:56.936769
- Title: A Reinforcement Learning Approach for Process Parameter Optimization in
Additive Manufacturing
- Title(参考訳): 添加物製造におけるプロセスパラメータ最適化のための強化学習手法
- Authors: Susheel Dharmadhikari, Nandana Menon, Amrita Basak
- Abstract要約: 本稿では,金属添加物製造分野における最適化問題に転換した強化学習(RL)手法を紹介する。
実験的に検証されたEagar-Tsaiの定式化は、レーザー指向のエネルギー沈着環境をエミュレートするために用いられる。
したがって、このフレームワークは、事前の観察なしに学習するためのモデルなしのアプローチを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Process optimization for metal additive manufacturing (AM) is crucial to
ensure repeatability, control microstructure, and minimize defects. Despite
efforts to address this via the traditional design of experiments and
statistical process mapping, there is limited insight on an on-the-fly
optimization framework that can be integrated into a metal AM system.
Additionally, most of these methods, being data-intensive, cannot be supported
by a metal AM alloy or system due to budget restrictions. To tackle this issue,
the article introduces a Reinforcement Learning (RL) methodology transformed
into an optimization problem in the realm of metal AM. An off-policy RL
framework based on Q-learning is proposed to find optimal laser power ($P$) -
scan velocity ($v$) combinations with the objective of maintaining steady-state
melt pool depth. For this, an experimentally validated Eagar-Tsai formulation
is used to emulate the Laser-Directed Energy Deposition environment, where the
laser operates as the agent across the $P-v$ space such that it maximizes
rewards for a melt pool depth closer to the optimum. The culmination of the
training process yields a Q-table where the state ($P,v$) with the highest
Q-value corresponds to the optimized process parameter. The resultant melt pool
depths and the mapping of Q-values to the $P-v$ space show congruence with
experimental observations. The framework, therefore, provides a model-free
approach to learning without any prior.
- Abstract(参考訳): 金属添加物製造(AM)のプロセス最適化は、繰り返し性の確保、微細構造制御、欠陥の最小化に不可欠である。
従来の実験設計や統計的プロセスマッピングを通じてこの問題に対処する努力にもかかわらず、オンザフライ最適化フレームワークに関する限られた洞察は、金属AMシステムに統合できる。
さらに、これらの手法の多くは、データ集約型であり、予算制限のため、金属AM合金やシステムでは支持できない。
この問題に対処するために、金属AM領域における最適化問題に変換された強化学習(RL)手法を提案する。
定常溶融プール深さを維持する目的で, 最適レーザーパワー(P$)スキャン速度(v$)の組み合わせを求めるために, Q-ラーニングに基づくオフポリチィRLフレームワークを提案する。
このために、実験的に検証されたeagar-tsai定式化は、レーザー指向のエネルギー沈着環境をエミュレートするために使用され、そこでレーザーは、最適に近いメルトプール深さに対する報酬を最大化するように、$p-v$空間を横切るエージェントとして作用する。
トレーニングプロセスの終了は、最も高いQ値を持つ状態(P,v$)が最適化されたプロセスパラメータに対応するQテーブルが得られる。
溶融プール深さとQ値の$P-v$空間へのマッピングは実験結果と一致している。
したがって、このフレームワークは、事前の学習なしに、モデルなしのアプローチを提供する。
関連論文リスト
- VinePPO: Unlocking RL Potential For LLM Reasoning Through Refined Credit Assignment [66.80143024475635]
VinePPOは不偏のモンテカルロ推定を計算するための簡単な手法である。
我々は、VinePPOが、MATHおよびGSM8Kデータセット間でPPOや他のRLフリーベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2024-10-02T15:49:30Z) - Reinforcement learning for anisotropic p-adaptation and error estimation in high-order solvers [0.37109226820205005]
強化学習(RL)を用いた高次h/pにおける異方性p適応の自動化と最適化のための新しい手法を提案する。
我々は,シミュレーションを行う際の最小限のオーバーコストを示す,主解法から切り離されたオフライントレーニング手法を開発した。
我々は、局所的な離散化誤差の定量化を可能にする、安価なRLベースの誤差推定手法を導出する。
論文 参考訳(メタデータ) (2024-07-26T17:55:23Z) - Improved Optimization for the Neural-network Quantum States and Tests on the Chromium Dimer [11.985673663540688]
ニューラルネットワーク量子状態(NQS)は、かなり高度な波動関数アンザッツ研究を持っている。
この研究は、NQSを用いたVMC最適化の計算要求を減らすために、3つのアルゴリズム拡張を導入する。
論文 参考訳(メタデータ) (2024-04-14T15:07:57Z) - Large Language Models to Enhance Bayesian Optimization [57.474613739645605]
本稿では,大規模言語モデル(LLM)の能力をベイズ最適化に組み込む新しいアプローチであるLLAMBOを提案する。
高いレベルでは、自然言語のBO問題を枠組み化し、LLMが歴史的評価に照らした有望な解を反復的に提案し、評価することを可能にする。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T11:44:06Z) - Landscape-Sketch-Step: An AI/ML-Based Metaheuristic for Surrogate
Optimization Problems [0.0]
コスト関数の広範囲な評価が高価で、アクセス不能、あるいは禁止されるシナリオにおいて、グローバルな最適化のための新しいアルゴリズムを導入する。
この手法はLandscape-Sketch-and-Step (LSS)と呼ばれ、機械学習、レプリカ最適化、強化学習技術を組み合わせたものである。
論文 参考訳(メタデータ) (2023-09-14T01:53:45Z) - Reduced Order Modeling of a MOOSE-based Advanced Manufacturing Model
with Operator Learning [2.517043342442487]
先進的製造(AM)は、核材料への潜在的な応用について、原子力コミュニティに多大な関心を集めている。
1つの課題は、実行時に製造プロセスを制御することによって、望ましい材料特性を得ることである。
深部強化学習(DRL)に基づくインテリジェントAMは、最適な設計変数を生成するためのプロセスレベルの自動制御機構に依存している。
論文 参考訳(メタデータ) (2023-08-18T17:38:00Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - TempoRL: laser pulse temporal shape optimization with Deep Reinforcement
Learning [0.577478614918139]
高出力レーザー(HPL)の最適性能は、光-物質相互作用に関連する様々な実験タスクの成功に不可欠である。
伝統的に、HPLパラメータはブラックボックスの数値法に依存する自動化方式で最適化される。
モデルフリーのDeep Reinforcement Learning (DRL)は、HPLパフォーマンスを最適化するための有望な代替フレームワークを提供する。
論文 参考訳(メタデータ) (2023-04-20T22:15:27Z) - An Experimental Design Perspective on Model-Based Reinforcement Learning [73.37942845983417]
環境からの状態遷移を観察するのは費用がかかる。
標準RLアルゴリズムは通常、学習するために多くの観測を必要とする。
本稿では,マルコフ決定過程について,状態-作用対がどの程度の情報を提供するかを定量化する獲得関数を提案する。
論文 参考訳(メタデータ) (2021-12-09T23:13:57Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。