論文の概要: Universal New Physics Latent Space
- arxiv url: http://arxiv.org/abs/2407.20315v1
- Date: Mon, 29 Jul 2024 18:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 19:08:17.757372
- Title: Universal New Physics Latent Space
- Title(参考訳): 普遍的な新しい物理ラテント空間
- Authors: Anna Hallin, Gregor Kasieczka, Sabine Kraml, André Lessa, Louis Moureaux, Tore von Schwartz, David Shih,
- Abstract要約: 我々は、標準モデルプロセスと標準モデル以外の様々な理論から派生したデータを統一表現(ラテント)空間にマッピングする機械学習手法を開発した。
本手法は, LHCにおける新しい物理の3つの例に適用し, LHCの表現法に従ってモデルがクラスタ化可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a machine learning method for mapping data originating from both Standard Model processes and various theories beyond the Standard Model into a unified representation (latent) space while conserving information about the relationship between the underlying theories. We apply our method to three examples of new physics at the LHC of increasing complexity, showing that models can be clustered according to their LHC phenomenology: different models are mapped to distinct regions in latent space, while indistinguishable models are mapped to the same region. This opens interesting new avenues on several fronts, such as model discrimination, selection of representative benchmark scenarios, and identifying gaps in the coverage of model space.
- Abstract(参考訳): 我々は,標準モデルプロセスと標準モデル以外の諸理論から派生したデータを,基礎となる理論間の関係を保存しつつ,統一された表現(ラテント)空間にマッピングする機械学習手法を開発した。
我々は, LHCにおける新しい物理の3つの例に適用し, LHCの現象学に基づいてモデルをクラスタ化できることを示し, 異なるモデルが潜在空間の異なる領域にマップされ, 識別不可能なモデルは同一領域にマップされることを示した。
これは、モデルの識別、代表的なベンチマークシナリオの選択、モデル空間のカバレッジにおけるギャップの特定など、いくつかの面で興味深い新しい道を開く。
関連論文リスト
- Understanding the differences in Foundation Models: Attention, State Space Models, and Recurrent Neural Networks [50.29356570858905]
本稿では,これらすべてのアーキテクチャの共通表現に関する原則的な調査を可能にする動的システムフレームワーク(DSF)について紹介する。
ソフトマックスアテンションと他のモデルクラスとの原理的比較を行い、ソフトマックスアテンションを近似できる理論条件について議論する。
このことは、DSFが将来のより効率的でスケーラブルな基盤モデルの体系的な開発を導く可能性を示している。
論文 参考訳(メタデータ) (2024-05-24T17:19:57Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Diffeomorphic Measure Matching with Kernels for Generative Modeling [1.2058600649065618]
本稿では、常微分方程式(ODE)と再生成ケルネルヒルベルト空間(RKHS)を用いて、最小分散生成モデリングおよびサンプリングに向けた確率測度を伝達するための枠組みを提案する。
提案手法の理論的解析を行い,モデルの複雑さ,トレーニングセット内のサンプル数,モデルの誤識別という観点から,事前誤差境界を与える。
論文 参考訳(メタデータ) (2024-02-12T21:44:20Z) - Foundational Inference Models for Dynamical Systems [3.95944314850151]
雑音データからのODEのゼロショット推論のための新しい教師付き学習フレームワークを提案する。
まず,初期条件空間上の分布をサンプリングすることにより,一次元ODEの大規模データセットを生成する。
次に、これらの方程式の解に関する雑音観測と、対応する初期条件とベクトル場の間のニューラルマップを学習する。
論文 参考訳(メタデータ) (2024-02-12T11:48:54Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Representer Point Selection for Explaining Regularized High-dimensional
Models [105.75758452952357]
本稿では,高次元表現器と呼ぶサンプルベース説明のクラスを紹介する。
私たちのワークホースは、一般化された高次元モデルに対する新しい代表者定理である。
提案手法の実証的性能について,実世界の2進分類データセットと2つの推薦システムデータセットを用いて検討した。
論文 参考訳(メタデータ) (2023-05-31T16:23:58Z) - On the Transformation of Latent Space in Fine-Tuned NLP Models [21.364053591693175]
微調整NLPモデルにおける潜伏空間の進化について検討する。
階層的クラスタリングを用いて表現空間における潜在概念を発見する。
3つのモデルと3つの下流タスクで事前訓練されたモデルと微調整されたモデルを比較した。
論文 参考訳(メタデータ) (2022-10-23T10:59:19Z) - The Geometry of Self-supervised Learning Models and its Impact on
Transfer Learning [62.601681746034956]
自己教師型学習(SSL)はコンピュータビジョンにおいて望ましいパラダイムとして登場した。
本稿では,各特徴空間内の局所的近傍を用いて異なるSSLモデルを分析するためのデータ駆動幾何学的手法を提案する。
論文 参考訳(メタデータ) (2022-09-18T18:15:38Z) - Unveiling the Latent Space Geometry of Push-Forward Generative Models [24.025975236316846]
多くの深い生成モデルは、GAN(Generative Adversarial Networks)やVAE(Varial Auto-Encoders)のような連続生成器によってガウス測度のプッシュフォワードとして定義される。
この研究は、そのような深層生成モデルの潜伏空間を探索する。
これらのモデルの主な問題は、非連結分布を学習する際に、対象分布の支持外からサンプルを出力する傾向があることである。
論文 参考訳(メタデータ) (2022-07-21T15:29:35Z) - Contrastive Neighborhood Alignment [81.65103777329874]
本稿では,学習特徴のトポロジを維持するための多様体学習手法であるContrastive Neighborhood Alignment(CNA)を提案する。
対象モデルは、対照的な損失を用いて、ソース表現空間の局所構造を模倣することを目的としている。
CNAは3つのシナリオで説明される: 多様体学習、モデルが元のデータの局所的なトポロジーを次元還元された空間で維持する、モデル蒸留、小さな学生モデルがより大きな教師を模倣するために訓練される、レガシーモデル更新、より強力なモデルに置き換えられる、という3つのシナリオである。
論文 参考訳(メタデータ) (2022-01-06T04:58:31Z) - Atlas Generative Models and Geodesic Interpolation [0.20305676256390928]
我々は,Atlas Generative Models (AGMs) の一般クラスを定義する。
グラフに基づく測地線のアルゴリズムをAGMの設定に一般化してこれを実証し、その性能を実験的に検証する。
論文 参考訳(メタデータ) (2021-01-30T16:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。