論文の概要: Gym-TORAX: Open-source software for integrating RL with plasma control simulators
- arxiv url: http://arxiv.org/abs/2510.11283v1
- Date: Mon, 13 Oct 2025 11:16:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.33585
- Title: Gym-TORAX: Open-source software for integrating RL with plasma control simulators
- Title(参考訳): Gym-TORAX:RLとプラズマ制御シミュレータを統合するオープンソースソフトウェア
- Authors: Antoine Mouchamps, Arthur Malherbe, Adrien Bolland, Damien Ernst,
- Abstract要約: Gym-TORAXは、強化学習環境の実装を可能にするPythonパッケージである。
Gym-TORAXは、プラズマ力学をシミュレートするためのTORAXをラップする体育館環境を作成する。
現在のバージョンでは、国際熱核実験炉(ITER)の上昇シナリオに基づいて、1つの環境が容易に利用可能である。
- 参考スコア(独自算出の注目度): 1.226598527858578
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents Gym-TORAX, a Python package enabling the implementation of Reinforcement Learning (RL) environments for simulating plasma dynamics and control in tokamaks. Users define succinctly a set of control actions and observations, and a control objective from which Gym-TORAX creates a Gymnasium environment that wraps TORAX for simulating the plasma dynamics. The objective is formulated through rewards depending on the simulated state of the plasma and control action to optimize specific characteristics of the plasma, such as performance and stability. The resulting environment instance is then compatible with a wide range of RL algorithms and libraries and will facilitate RL research in plasma control. In its current version, one environment is readily available, based on a ramp-up scenario of the International Thermonuclear Experimental Reactor (ITER).
- Abstract(参考訳): 本稿では,プラズマ力学のシミュレーションとトカマク制御のための強化学習(RL)環境の実装を可能にするPythonパッケージであるGym-TORAXを提案する。
ユーザは簡潔に一連の制御アクションと観察を定義し、Gym-TORAXがプラズマ力学をシミュレートするためのTORAXをラップする体育館環境を作成する制御目標を定義する。
この目的は、プラズマのシミュレーション状態と制御動作に依存する報酬によって定式化され、プラズマの特性、例えば性能や安定性を最適化する。
結果の環境インスタンスは、幅広いRLアルゴリズムとライブラリと互換性があり、プラズマ制御におけるRLの研究を促進する。
現在のバージョンでは、国際熱核実験炉(ITER)の上昇シナリオに基づいて、1つの環境が容易に利用可能である。
関連論文リスト
- SINERGYM -- A virtual testbed for building energy optimization with Reinforcement Learning [40.71019623757305]
本稿では、大規模ビルディングシミュレーション、データ収集、継続的制御、実験監視のためのオープンソースのPythonベースの仮想テストベッドであるSinergymについて述べる。
論文 参考訳(メタデータ) (2024-12-11T11:09:13Z) - SwarmRL: Building the Future of Smart Active Systems [1.8087133416885264]
この研究は、インテリジェントなアクティブ粒子を研究するために設計されたPythonパッケージであるSwarmRLを紹介する。
SwarmRLは、顕微鏡コロイドを制御するモデルを開発するための使いやすいインターフェースを提供する。
論文 参考訳(メタデータ) (2024-04-25T07:57:11Z) - Resilient Control of Networked Microgrids using Vertical Federated
Reinforcement Learning: Designs and Real-Time Test-Bed Validations [5.394255369988441]
本稿では、(a)モデル複雑度、(b)ISRデバイスの未知の動的挙動、(b)マルチパーティ所有のネットワークグリッドにおけるデータ共有に関するプライバシー問題、(2)シミュレーションからハードウェア・イン・ザ・ループテストベッドへの学習制御の移行について、新しいフェデレーション強化学習(Fed-RL)アプローチを提案する。
実験により,シミュレータ学習したRLコントローラは実時間テストベッドのセットアップによる説得力のある結果が得られ,sim-to-realギャップの最小化が検証された。
論文 参考訳(メタデータ) (2023-11-21T00:59:27Z) - Plasma Surrogate Modelling using Fourier Neural Operators [57.52074029826172]
トカマク炉内のプラズマの進化を予測することは、持続可能な核融合の目標を実現するために不可欠である。
深層学習に基づく代理モデルツールviz., Neural Operators (FNO) を用いた進化プラズマの正確な予測を実証する。
我々は、FNOが磁気流体力学モデルからシミュレーションされたプラズマ力学を予測する際に、従来の解法よりも6桁の速度を持つことを示した。
FNOは、MASTトカマク内のカメラで観測された実世界の実験データに基づいて、プラズマの進化を予測することもできる。
論文 参考訳(メタデータ) (2023-11-10T10:05:00Z) - Closing the loop: Autonomous experiments enabled by
machine-learning-based online data analysis in synchrotron beamline
environments [80.49514665620008]
機械学習は、大規模または高速に生成されたデータセットを含む研究を強化するために使用できる。
本研究では,X線反射法(XRR)のための閉ループワークフローへのMLの導入について述べる。
本研究では,ビームライン制御ソフトウェア環境に付加的なソフトウェア依存関係を導入することなく,実験中の基本データ解析をリアルタイムで行うソリューションを提案する。
論文 参考訳(メタデータ) (2023-06-20T21:21:19Z) - Gym-preCICE: Reinforcement Learning Environments for Active Flow Control [0.0]
Gym-preCICEはPythonのアダプタで、Gymnasium (以前はOpenAI Gymとして知られていた) APIに完全に準拠している。
Gym-preCICEは、分割多重物理シミュレーションのためのオープンソースの結合ライブラリであるPreCICEを利用する。
このフレームワークは、リアルな物理ベースのシミュレーションツールボックスとRLアルゴリズムをシームレスに統合する。
論文 参考訳(メタデータ) (2023-05-03T10:54:56Z) - SAM-RL: Sensing-Aware Model-Based Reinforcement Learning via
Differentiable Physics-Based Simulation and Rendering [49.78647219715034]
本稿では,SAM-RL と呼ばれる感性認識モデルに基づく強化学習システムを提案する。
SAM-RLは、センサーを意識した学習パイプラインによって、ロボットがタスクプロセスを監視するための情報的視点を選択することを可能にする。
我々は,ロボット組立,ツール操作,変形可能なオブジェクト操作という3つの操作タスクを達成するための実世界の実験に,我々のフレームワークを適用した。
論文 参考訳(メタデータ) (2022-10-27T05:30:43Z) - Transmit Power Control for Indoor Small Cells: A Method Based on
Federated Reinforcement Learning [2.392377380146]
本稿では,フェデレート強化学習(FRL)に基づく分散セル電力制御方式を提案する。
異なる屋内環境のモデルはトレーニングプロセス中にグローバルモデルに集約され、中央サーバは更新されたモデルを各クライアントにブロードキャストする。
一般化実験の結果, FRLモデルをベースモデルとして用いることにより, 新しい環境下でのモデルの収束速度が向上することが示された。
論文 参考訳(メタデータ) (2022-08-31T14:46:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。