論文の概要: Exploring the Truth and Beauty of Theory Landscapes with Machine
Learning
- arxiv url: http://arxiv.org/abs/2401.11513v1
- Date: Sun, 21 Jan 2024 14:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 16:10:50.327175
- Title: Exploring the Truth and Beauty of Theory Landscapes with Machine
Learning
- Title(参考訳): 機械学習による理論景観の真実と美しさの探求
- Authors: Konstantin T. Matchev, Katia Matcheva, Pierre Ramond, Sarunas Verner
- Abstract要約: ユカワクォークセクターをおもちゃの例として用いて、これらのタスクが機械学習技術によってどのように達成できるかを実証する。
損失最小化関数は、3つの異なる基準(均一性、疎性、対称性)で測られるように、真のモデルで得られる。
- 参考スコア(独自算出の注目度): 1.8434042562191815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Theoretical physicists describe nature by i) building a theory model and ii)
determining the model parameters. The latter step involves the dual aspect of
both fitting to the existing experimental data and satisfying abstract criteria
like beauty, naturalness, etc. We use the Yukawa quark sector as a toy example
to demonstrate how both of those tasks can be accomplished with machine
learning techniques. We propose loss functions whose minimization results in
true models that are also beautiful as measured by three different criteria -
uniformity, sparsity, or symmetry.
- Abstract(参考訳): 理論物理学者は自然を
一 理論モデルを構築して
二 モデルパラメータを決定すること。
後者のステップは、既存の実験データに適合し、美や自然性などの抽象的な基準を満たすという2つの側面を含む。
おもちゃの例として湯川クォークセクタを使って、これら2つのタスクが機械学習技術でどのように達成できるかを実証します。
本研究では,3つの異なる基準一様性,スパース性,対称性によって測定される真のモデルが最小化される損失関数を提案する。
関連論文リスト
- Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Transformers are uninterpretable with myopic methods: a case study with
bounded Dyck grammars [36.780346257061495]
解釈可能性法は、訓練されたモデルによって実装されたアルゴリズムを理解することを目的としている。
私たちは、モデルの個々の部分にのみフォーカスするメソッドの批判的な見解を取ります。
論文 参考訳(メタデータ) (2023-12-03T15:34:46Z) - Seeking Truth and Beauty in Flavor Physics with Machine Learning [1.8434042562191815]
両タスクを機械学習技術で実行するための損失関数を設計する。
ユカワクォークセクターをおもちゃの例として用いて、これらの損失関数の最適化が真で美しいモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2023-10-31T18:53:22Z) - Collapse Models: a theoretical, experimental and philosophical review [0.0]
我々は,少なくとも3つの理由から,崩壊モデルに対する存在論的示唆の明確化が必要であることを示す。
我々は,少なくとも3つの理由から,崩壊モデルに対する存在論的示唆の明確化が必要であることを示す。
論文 参考訳(メタデータ) (2023-10-23T14:13:41Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Minimal Value-Equivalent Partial Models for Scalable and Robust Planning
in Lifelong Reinforcement Learning [56.50123642237106]
モデルに基づく強化学習における一般的な実践は、エージェントの環境のあらゆる側面をモデル化するモデルを学ぶことである。
このようなモデルは、生涯にわたる強化学習シナリオにおいて、スケーラブルで堅牢な計画を実行するのに特に適していない、と我々は主張する。
我々は,「最小値部分モデル」と呼ぶ,環境の関連する側面のみをモデル化する新しい種類のモデルを提案する。
論文 参考訳(メタデータ) (2023-01-24T16:40:01Z) - Active Discrimination Learning for Gaussian Process Models [0.27998963147546135]
本稿では,ガウス過程モデルとガウス過程モデルを区別する実験の設計と解析について述べる。
この選択は、2つのモデルに対する対称対称カルバック・リーバーの差の最大化に依存する。
その他の距離ベースの基準も導入され、従来の基準よりも計算が簡単になった。
論文 参考訳(メタデータ) (2022-11-21T16:27:50Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - A Scaling Law for Synthetic-to-Real Transfer: A Measure of Pre-Training [52.93808218720784]
合成から現実への変換学習は,実タスクのための合成画像と接地真実アノテーションを用いた事前学習を行うフレームワークである。
合成画像はデータの不足を克服するが、事前訓練されたモデルで微調整性能がどのようにスケールするかは定かではない。
我々は、合成事前学習データの様々なタスク、モデル、複雑さにおける学習曲線を一貫して記述する、単純で一般的なスケーリング法則を観察する。
論文 参考訳(メタデータ) (2021-08-25T02:29:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。