論文の概要: Surpassing legacy approaches and human intelligence with hybrid single-
and multi-objective Reinforcement Learning-based optimization and
interpretable AI to enable the economic operation of the US nuclear fleet
- arxiv url: http://arxiv.org/abs/2402.11040v1
- Date: Fri, 16 Feb 2024 19:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 23:49:56.077343
- Title: Surpassing legacy approaches and human intelligence with hybrid single-
and multi-objective Reinforcement Learning-based optimization and
interpretable AI to enable the economic operation of the US nuclear fleet
- Title(参考訳): 単一および多目的の強化学習に基づく最適化と解釈可能なaiによる米国原子力艦隊の経済活動を可能にするレガシーアプローチとヒューマンインテリジェンス
- Authors: Paul Seurin, Koroush Shirvan
- Abstract要約: 原子力セクターは、アメリカ合衆国における炭素フリーエネルギーの主要な供給源である。
既存の原子力発電所は、ガス発電所のような代替品と経済的に競合することができないため、早期閉鎖の脅威に直面している。
我々は,Deep Reinforcement Learningに基づくコアリロードパターンの最先端化手法を開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The nuclear sector represents the primary source of carbon-free energy in the
United States. Nevertheless, existing nuclear power plants face the threat of
early shutdowns due to their inability to compete economically against
alternatives such as gas power plants. Optimizing the fuel cycle cost through
the optimization of core loading patterns is one approach to addressing this
lack of competitiveness. However, this optimization task involves multiple
objectives and constraints, resulting in a vast number of candidate solutions
that cannot be explicitly solved. While stochastic optimization (SO)
methodologies are utilized by various nuclear utilities and vendors for fuel
cycle reload design, manual design remains the preferred approach. To advance
the state-of-the-art in core reload patterns, we have developed methods based
on Deep Reinforcement Learning. Previous research has laid the groundwork for
this approach and demonstrated its ability to discover high-quality patterns
within a reasonable timeframe. However, there is a need for comparison against
legacy methods to demonstrate its utility in a single-objective setting. While
RL methods have shown superiority in multi-objective settings, they have not
yet been applied to address the competitiveness issue effectively. In this
paper, we rigorously compare our RL-based approach against the most commonly
used SO-based methods, namely Genetic Algorithm (GA), Simulated Annealing (SA),
and Tabu Search (TS). Subsequently, we introduce a new hybrid paradigm to
devise innovative designs, resulting in economic gains ranging from 2.8 to 3.3
million dollars per year per plant. This development leverages interpretable
AI, enabling improved algorithmic efficiency by making black-box optimizations
interpretable. Future work will focus on scaling this method to address a
broader range of core designs.
- Abstract(参考訳): 原子力部門は、アメリカ合衆国における炭素フリーエネルギーの主要源である。
それでも、既存の原子力発電所は、ガス発電所のような代替品と経済的に競合できないため、早期閉鎖の脅威に直面している。
コアローディングパターンの最適化による燃料サイクルコストの最適化は、この競争力の欠如に対処する1つのアプローチである。
しかし、この最適化タスクには複数の目的と制約が伴うため、明示的に解決できない候補解が多数存在する。
確率最適化(SO)手法は、燃料サイクルのリロード設計のために様々な原子力施設やベンダーによって使用されているが、手動設計は依然として好ましいアプローチである。
コアリロードパターンの最先端化に向けて,Deep Reinforcement Learningに基づく手法を開発した。
従来の研究はこのアプローチの基礎を築き、合理的な時間枠内で高品質なパターンを発見する能力を示した。
しかし、単一目的の設定でその有用性を示すために、レガシーメソッドと比較する必要がある。
rlメソッドは多目的設定において優れているが、競争力の問題に効果的に対処するためにはまだ適用されていない。
本稿では遺伝的アルゴリズム(GA)、シミュレート・アニーリング(SA)、タブ・サーチ(TS)など、最もよく使われているSOベースの手法に対して、我々のRLベースのアプローチを厳格に比較する。
続いて,革新的デザインを考案する新たなハイブリッドパラダイムを導入し,年間2.8~3.3億ドルの経済効果を得た。
この開発は解釈可能なAIを活用し、ブラックボックス最適化を解釈可能なものにすることでアルゴリズム効率を向上させる。
今後は、このメソッドをスケールして、幅広いコア設計に対処していく予定だ。
関連論文リスト
- Accelerated Preference Optimization for Large Language Model Alignment [60.22606527763201]
Reinforcement Learning from Human Feedback (RLHF) は、大きな言語モデル(LLM)を人間の好みに合わせるための重要なツールとして登場した。
直接選好最適化(DPO)は、報酬関数を明示的に見積もることなく、ポリシー最適化問題としてRLHFを定式化する。
本稿では,既存の最適化アルゴリズムを統一したAPO(Accelerated Preference Optimization)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-08T18:51:01Z) - The Hitchhiker's Guide to Human Alignment with *PO [43.4130314879284]
我々は,高次パラメータの変動に対して同時に頑健であるアルゴリズムの同定に焦点をあてる。
解析の結果,広範に採用されているDPO法は,品質が劣る長大な応答を連続的に生成することがわかった。
これらの結果から,DPOアルゴリズムであるLN-DPOの精度が向上し,品質を損なうことなく,より簡潔な応答が得られることが示唆された。
論文 参考訳(メタデータ) (2024-07-21T17:35:20Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - DPO: Differential reinforcement learning with application to optimal configuration search [3.2857981869020327]
連続状態と行動空間による強化学習は、この分野における最も困難な問題の1つである。
限られたトレーニングサンプルと短いエピソードで設定を処理できる最初の微分RLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-24T03:11:12Z) - Towards Efficient Exact Optimization of Language Model Alignment [93.39181634597877]
嗜好データから直接ポリシーを最適化するために、直接選好最適化(DPO)が提案された。
問題の最適解に基づいて導出されたDPOが,現実の最適解の妥協平均探索近似に繋がることを示す。
本稿では、アライメント目的の効率的な精度最適化(EXO)を提案する。
論文 参考訳(メタデータ) (2024-02-01T18:51:54Z) - Iterative Preference Learning from Human Feedback: Bridging Theory and Practice for RLHF under KL-Constraint [56.74058752955209]
本稿では,RLHFによる強化学習を用いた生成モデルのアライメント過程について検討する。
まず、オフラインPPOやオフラインDPOのような既存の一般的な手法の主な課題を、環境の戦略的探索に欠如していると認識する。
有限サンプル理論保証を用いた効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-18T18:58:42Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [61.39541986848391]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Local Optimization Achieves Global Optimality in Multi-Agent
Reinforcement Learning [139.53668999720605]
本稿では,各エージェントのローカルポリシーをバニラPPOと同様に更新するマルチエージェントPPOアルゴリズムを提案する。
マルコフゲームにおける標準正則条件と問題依存量により、我々のアルゴリズムはサブリニアレートで大域的最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2023-05-08T16:20:03Z) - Sample-Efficient, Exploration-Based Policy Optimisation for Routing
Problems [2.6782615615913348]
本稿では,エントロピーに基づく新しい強化学習手法を提案する。
さらに、我々は、期待したリターンを最大化する、政治以外の強化学習手法を設計する。
我々のモデルは様々な経路問題に一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-05-31T09:51:48Z) - Towards Applicable Reinforcement Learning: Improving the Generalization
and Sample Efficiency with Policy Ensemble [43.95417785185457]
金融取引やロジスティックシステムといった現実世界の応用において、強化学習アルゴリズムが成功することは困難である。
本稿では,エンド・ツー・エンドでアンサンブルポリシーを学習するEnsemble Proximal Policy Optimization (EPPO)を提案する。
EPPOは、バニラポリシー最適化アルゴリズムやその他のアンサンブル手法と比較して、より効率が高く、現実世界のアプリケーションにとって堅牢である。
論文 参考訳(メタデータ) (2022-05-19T02:25:32Z) - Near Optimal Policy Optimization via REPS [33.992374484681704]
emphrelative entropy policy search (reps) は多くのシミュレーションと実世界のロボットドメインでポリシー学習に成功した。
勾配に基づく解法を用いる場合、REPSの性能には保証がない。
最適規則化ポリシーに好適な収束を維持するためのパラメータ更新を計算するために,基礎となる決定プロセスへの表現的アクセスを利用する手法を提案する。
論文 参考訳(メタデータ) (2021-03-17T16:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。