論文の概要: Reinforcement learning-based statistical search strategy for an axion model from flavor
- arxiv url: http://arxiv.org/abs/2409.10023v1
- Date: Mon, 16 Sep 2024 06:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 16:30:58.877435
- Title: Reinforcement learning-based statistical search strategy for an axion model from flavor
- Title(参考訳): 強化学習に基づくフレーバーからのアクシオンモデルの統計的探索戦略
- Authors: Satsuki Nishimura, Coh Miyao, Hajime Otsuka,
- Abstract要約: 標準モデルを超えて新しい物理を探求するための強化学習に基づく探索戦略を提案する。
我々は、大域的な$U(1)$フレーバー対称性を持つ最小のアクシオンモデルに焦点を当てる。
学習エージェントはクォークとレプトンの代入金$U(1)$を見つけることに成功している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a reinforcement learning-based search strategy to explore new physics beyond the Standard Model. The reinforcement learning, which is one of machine learning methods, is a powerful approach to find model parameters with phenomenological constraints. As a concrete example, we focus on a minimal axion model with a global $U(1)$ flavor symmetry. Agents of the learning succeed in finding $U(1)$ charge assignments of quarks and leptons solving the flavor and cosmological puzzles in the Standard Model, and find more than 150 realistic solutions for the quark sector taking renormalization effects into account. For the solutions found by the reinforcement learning-based analysis, we discuss the sensitivity of future experiments for the detection of an axion which is a Nambu-Goldstone boson of the spontaneously broken $U(1)$. We also examine how fast the reinforcement learning-based searching method finds the best discrete parameters in comparison with conventional optimization methods. In conclusion, the efficient parameter search based on the reinforcement learning-based strategy enables us to perform a statistical analysis of the vast parameter space associated with the axion model from flavor.
- Abstract(参考訳): 標準モデルを超えて新しい物理を探求するための強化学習に基づく探索戦略を提案する。
強化学習は、機械学習手法の一つであり、現象論的制約のあるモデルパラメータを見つけるための強力なアプローチである。
具体的な例として、大域的な$U(1)$フレーバー対称性を持つ最小のアクシオンモデルに焦点を当てる。
学習エージェントは、クォークとレプトンの代入として、標準模型のフレーバーと宇宙論のパズルを解くことに成功し、クォークセクターに対する150以上の現実的な解決策を見出した。
強化学習に基づく解析から得られた解について,自然に壊れた$U(1)$のNambu-Goldstoneボソンであるアクシオンの検出に対する将来の実験の感度について論じる。
また、従来の最適化手法と比較して、強化学習に基づく探索手法が最適な離散パラメータを見つける速度についても検討した。
結論として、強化学習に基づく戦略に基づく効率的なパラメータ探索により、アクシオンモデルに関連する広大なパラメータ空間の統計的解析をフレーバーから行うことができる。
関連論文リスト
- Model-based Policy Optimization using Symbolic World Model [46.42871544295734]
ロボット工学における学習に基づく制御手法の適用は、大きな課題を呈している。
1つは、モデルなし強化学習アルゴリズムがサンプル効率の低い観測データを使用することである。
シンボリック回帰によって生成されるシンボリック表現による遷移ダイナミクスの近似を提案する。
論文 参考訳(メタデータ) (2024-07-18T13:49:21Z) - Model-Free Active Exploration in Reinforcement Learning [53.786439742572995]
強化学習における探索問題について検討し,新しいモデルフリーソリューションを提案する。
我々の戦略は、最先端の探査アプローチよりも高速に効率的な政策を特定できる。
論文 参考訳(メタデータ) (2024-06-30T19:00:49Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - Dynamical Isometry based Rigorous Fair Neural Architecture Search [2.7850218655824803]
動的アイソメトリに基づくニューラルアーキテクチャ探索アルゴリズムを提案する。
well-conditioned Jacobian を用いて全加群の一般化誤差を推定することにより、我々の加群選択戦略が厳密な公正であることを証明する。
論文 参考訳(メタデータ) (2023-07-05T13:01:21Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - On the Influence of Enforcing Model Identifiability on Learning dynamics
of Gaussian Mixture Models [14.759688428864159]
特異モデルからサブモデルを抽出する手法を提案する。
本手法はトレーニング中のモデルの識別性を強制する。
この手法がディープニューラルネットワークのようなより複雑なモデルにどのように適用できるかを示す。
論文 参考訳(メタデータ) (2022-06-17T07:50:22Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - On the model-based stochastic value gradient for continuous
reinforcement learning [50.085645237597056]
モデルベースエージェントは,サンプル効率と最終報酬の両方の観点から,最先端のモデルフリーエージェントより優れていることを示す。
以上の結果から,モデルに基づく政策評価がより注目に値することが示唆された。
論文 参考訳(メタデータ) (2020-08-28T17:58:29Z) - Efficient Model-Based Reinforcement Learning through Optimistic Policy
Search and Planning [93.1435980666675]
最先端の強化学習アルゴリズムと楽観的な探索を容易に組み合わせることができることを示す。
我々の実験は、楽観的な探索が行動に罰則がある場合、学習を著しくスピードアップすることを示した。
論文 参考訳(メタデータ) (2020-06-15T18:37:38Z) - Computational model discovery with reinforcement learning [3.005240085945858]
この研究の動機は、人工知能研究の最近の進歩を利用して、計算科学で遭遇した科学的問題に対する新しい解決策を解き放つことである。
そこで我々は,人間の思考を人工知能で補うことを提案する。
論文 参考訳(メタデータ) (2019-12-29T22:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。