論文の概要: Discovering the underlying analytic structure within Standard Model constants using artificial intelligence
- arxiv url: http://arxiv.org/abs/2507.00225v2
- Date: Fri, 01 Aug 2025 16:23:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 14:06:53.456715
- Title: Discovering the underlying analytic structure within Standard Model constants using artificial intelligence
- Title(参考訳): 人工知能を用いた標準モデル定数の基盤構造解明
- Authors: S. V. Chekanov, H. Kjellerstrand,
- Abstract要約: シンボリック回帰と遺伝的プログラミングを用いて,標準モデル(SM)の基本パラメータの基盤となる解析構造を探索する。
これらの定数のペアを結合する最も単純な解析関係を同定し、相対的精度が1%以上であるいくつかの顕著な表現を報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a search for underlying analytic structures among the fundamental parameters of the Standard Model (SM) using symbolic regression and genetic programming. We identify the simplest analytic relationships connecting pairs of these constants and report several notable expressions obtained with relative precision better than 1%. These results may serve as valuable inputs for model builders and artificial intelligence methods aimed at uncovering hidden patterns among the SM constants, or potentially used as building blocks for a deeper underlying law that connects all parameters of the SM through a small set of fundamental constants.
- Abstract(参考訳): 本稿では,記号回帰と遺伝的プログラミングを用いて,標準モデル(SM)の基本パラメータの基盤となる解析構造を探索する。
これらの定数のペアを結合する最も単純な解析関係を同定し、相対的精度が1%以上で得られたいくつかの顕著な表現を報告する。
これらの結果は、SM定数間の隠れパターンを明らかにすることを目的としたモデルビルダーや人工知能手法の貴重な入力、あるいはSMのすべてのパラメータを小さな基本定数によって接続するより深い法則のビルディングブロックとして使われる可能性がある。
関連論文リスト
- Measuring and Analyzing Intelligence via Contextual Uncertainty in Large Language Models using Information-Theoretic Metrics [0.0]
任意のモデルに対して「定量的認知プロファイル」を作成することにより、ダイナミックスを探索する新しいタスク非依存のアプローチを導入する。
この方法論を多種多様なテキストにわたる最先端のLCMに適用することにより、モデルスケールとテキストの複雑さの両方に敏感な、ユニークで一貫した認知プロファイルを明らかにする。
論文 参考訳(メタデータ) (2025-07-21T20:14:25Z) - Detecting and Pruning Prominent but Detrimental Neurons in Large Language Models [68.57424628540907]
大規模言語モデル(LLM)は、しばしば特定のデータセットに特化した学習メカニズムを開発する。
本稿では,データセット固有のメカニズムに関連するニューロンの同定と解析により,一般化の促進を目的とした微調整手法を提案する。
本手法では,各ニューロンの高信頼度予測への影響を定量化するため,データセット固有の性能に不均等に寄与するニューロンを同定する。
論文 参考訳(メタデータ) (2025-07-12T08:10:10Z) - Enhancing generalizability of model discovery across parameter space with multi-experiment equation learning (ME-EQL) [37.69303106863453]
1-at-a-time ME-EQL(OAT ME-EQL)は、各パラメータセットの個々のモデルを学び、それらを接続し、組み込み構造ME-EQL(ES ME-EQL)である。
本手法は,生死平均場モデルと,生死モデルと空間構造を用いた移動モデルを用いて実証する。
この結果から,OAT ME-EQLはパラメータ空間の一般化性を向上させるとともに,エージェントベースシミュレーションからパラメータを復元する際の相対誤差を著しく低減することがわかった。
論文 参考訳(メタデータ) (2025-06-10T15:42:58Z) - Model Assembly Learning with Heterogeneous Layer Weight Merging [57.8462476398611]
モデル統合のための新しいパラダイムであるモデルアセンブリ学習(MAL)を紹介する。
MALは、様々なモデルのパラメータをオープンエンドモデル動物園に統合し、ベースモデルの能力を高める。
論文 参考訳(メタデータ) (2025-03-27T16:21:53Z) - Comparing analytic and data-driven approaches to parameter identifiability: A power systems case study [41.94295877935867]
本稿では,パラメータ識別可能性の定量化のための分析的アプローチとデータ駆動手法を比較し,比較する研究について報告する。
我々は、ベンチマーク問題として、パワーシステム領域からのよく理解されたモデルである無限バス同期ジェネレータモデルを使用します。
これらの結果とデータ駆動型多様体学習スキーム:出力拡散(英語版) - マップと幾何調和(英語版) (Geometric Harmonics) を比較した。
論文 参考訳(メタデータ) (2024-12-24T19:33:12Z) - Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Functional Generalized Canonical Correlation Analysis for studying
multiple longitudinal variables [0.9208007322096533]
FGCCA(Functional Generalized Canonical correlation Analysis)は、共同で観測される複数のランダムプロセス間の関連を探索する新しいフレームワークである。
我々は,解法の単調性を確立し,標準成分を推定するためのベイズ的アプローチを導入する。
本稿では,縦断データセットにユースケースを提示し,シミュレーション研究における手法の効率性を評価する。
論文 参考訳(メタデータ) (2023-10-11T09:21:31Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Surrogate Modeling for Physical Systems with Preserved Properties and
Adjustable Tradeoffs [0.0]
代理モデルを生成するためのモデルベースおよびデータ駆動型戦略を提案する。
後者は、前提となる位相構造に人工的関係を組み込むことで解釈可能な代理モデルを生成する。
我々のフレームワークは、分散パラメータモデルのための様々な空間離散化スキームと互換性がある。
論文 参考訳(メタデータ) (2022-02-02T17:07:02Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Information-theoretic limits of a multiview low-rank symmetric spiked
matrix model [19.738567726658875]
我々は、高次元推論問題の重要なクラス、すなわちスパイクされた対称行列モデルの一般化を考える。
シングルレター公式の証明を通じて情報理論の限界を厳格に確立する。
我々は最近導入された適応手法を改良し、低ランクモデルの研究に利用できるようにした。
論文 参考訳(メタデータ) (2020-05-16T15:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。