論文の概要: Universal New Physics Latent Space
- arxiv url: http://arxiv.org/abs/2407.20315v2
- Date: Wed, 22 Jan 2025 13:37:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:27:55.830139
- Title: Universal New Physics Latent Space
- Title(参考訳): 普遍的な新しい物理ラテント空間
- Authors: Anna Hallin, Gregor Kasieczka, Sabine Kraml, André Lessa, Louis Moureaux, Tore von Schwartz, David Shih,
- Abstract要約: 我々は、標準モデルプロセスと標準モデル以外の様々な理論から派生したデータを統一表現(ラテント)空間にマッピングする機械学習手法を開発した。
本手法は, LHCにおける新しい物理の3つの例に適用し, LHCの表現法に従ってモデルがクラスタ化可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We develop a machine learning method for mapping data originating from both Standard Model processes and various theories beyond the Standard Model into a unified representation (latent) space while conserving information about the relationship between the underlying theories. We apply our method to three examples of new physics at the LHC of increasing complexity, showing that models can be clustered according to their LHC phenomenology: different models are mapped to distinct regions in latent space, while indistinguishable models are mapped to the same region. This opens interesting new avenues on several fronts, such as model discrimination, selection of representative benchmark scenarios, and identifying gaps in the coverage of model space.
- Abstract(参考訳): 我々は,標準モデルプロセスと標準モデル以外の諸理論から派生したデータを,基礎となる理論間の関係を保存しつつ,統一された表現(ラテント)空間にマッピングする機械学習手法を開発した。
我々は, LHCにおける新しい物理の3つの例に適用し, LHCの現象学に基づいてモデルをクラスタ化できることを示し, 異なるモデルが潜在空間の異なる領域にマップされ, 識別不可能なモデルは同一領域にマップされることを示した。
これは、モデルの識別、代表的なベンチマークシナリオの選択、モデル空間のカバレッジにおけるギャップの特定など、いくつかの面で興味深い新しい道を開く。
関連論文リスト
- Geometric Trajectory Diffusion Models [58.853975433383326]
生成モデルは3次元幾何学システムの生成において大きな可能性を示してきた。
既存のアプローチは静的構造のみで動作し、物理系は常に自然界において動的であるという事実を無視する。
本研究では3次元軌跡の時間分布をモデル化する最初の拡散モデルである幾何軌道拡散モデル(GeoTDM)を提案する。
論文 参考訳(メタデータ) (2024-10-16T20:36:41Z) - Interpreting the Weight Space of Customized Diffusion Models [79.14866339932199]
微調整拡散モデルの重み空間は、新しいモデルを生成する解釈可能なメタラテント空間として振る舞うことができることを示す。
この結果から,微調整拡散モデルの重み空間は,新しいモデルを生成する解釈可能なメタラテント空間として振る舞うことが示唆された。
論文 参考訳(メタデータ) (2024-06-13T17:59:56Z) - Understanding the differences in Foundation Models: Attention, State Space Models, and Recurrent Neural Networks [50.29356570858905]
本稿では,これらすべてのアーキテクチャの共通表現に関する原則的な調査を可能にする動的システムフレームワーク(DSF)について紹介する。
ソフトマックスアテンションと他のモデルクラスとの原理的比較を行い、ソフトマックスアテンションを近似できる理論条件について議論する。
このことは、DSFが将来のより効率的でスケーラブルな基盤モデルの体系的な開発を導く可能性を示している。
論文 参考訳(メタデータ) (2024-05-24T17:19:57Z) - Diffeomorphic Measure Matching with Kernels for Generative Modeling [1.2058600649065618]
本稿では、常微分方程式(ODE)と再生成ケルネルヒルベルト空間(RKHS)を用いて、最小分散生成モデリングおよびサンプリングに向けた確率測度を伝達するための枠組みを提案する。
提案手法の理論的解析を行い,モデルの複雑さ,トレーニングセット内のサンプル数,モデルの誤識別という観点から,事前誤差境界を与える。
論文 参考訳(メタデータ) (2024-02-12T21:44:20Z) - Improving Generative Model-based Unfolding with Schr\"{o}dinger Bridges [14.989614554242229]
機械学習に基づく展開により、未結合かつ高次元の断面積測定が可能になった。
我々はシュレーディンガーブリッジと拡散モデルを用いてSBUnfoldを作成することを提案する。
SBUnfoldは,合成Z+jetsデータセット上でのアート手法の状態と比較して,優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2023-08-23T18:01:01Z) - Representer Point Selection for Explaining Regularized High-dimensional
Models [105.75758452952357]
本稿では,高次元表現器と呼ぶサンプルベース説明のクラスを紹介する。
私たちのワークホースは、一般化された高次元モデルに対する新しい代表者定理である。
提案手法の実証的性能について,実世界の2進分類データセットと2つの推薦システムデータセットを用いて検討した。
論文 参考訳(メタデータ) (2023-05-31T16:23:58Z) - On the Transformation of Latent Space in Fine-Tuned NLP Models [21.364053591693175]
微調整NLPモデルにおける潜伏空間の進化について検討する。
階層的クラスタリングを用いて表現空間における潜在概念を発見する。
3つのモデルと3つの下流タスクで事前訓練されたモデルと微調整されたモデルを比較した。
論文 参考訳(メタデータ) (2022-10-23T10:59:19Z) - The Geometry of Self-supervised Learning Models and its Impact on
Transfer Learning [62.601681746034956]
自己教師型学習(SSL)はコンピュータビジョンにおいて望ましいパラダイムとして登場した。
本稿では,各特徴空間内の局所的近傍を用いて異なるSSLモデルを分析するためのデータ駆動幾何学的手法を提案する。
論文 参考訳(メタデータ) (2022-09-18T18:15:38Z) - Unveiling the Latent Space Geometry of Push-Forward Generative Models [24.025975236316846]
多くの深い生成モデルは、GAN(Generative Adversarial Networks)やVAE(Varial Auto-Encoders)のような連続生成器によってガウス測度のプッシュフォワードとして定義される。
この研究は、そのような深層生成モデルの潜伏空間を探索する。
これらのモデルの主な問題は、非連結分布を学習する際に、対象分布の支持外からサンプルを出力する傾向があることである。
論文 参考訳(メタデータ) (2022-07-21T15:29:35Z) - Contrastive Neighborhood Alignment [81.65103777329874]
本稿では,学習特徴のトポロジを維持するための多様体学習手法であるContrastive Neighborhood Alignment(CNA)を提案する。
対象モデルは、対照的な損失を用いて、ソース表現空間の局所構造を模倣することを目的としている。
CNAは3つのシナリオで説明される: 多様体学習、モデルが元のデータの局所的なトポロジーを次元還元された空間で維持する、モデル蒸留、小さな学生モデルがより大きな教師を模倣するために訓練される、レガシーモデル更新、より強力なモデルに置き換えられる、という3つのシナリオである。
論文 参考訳(メタデータ) (2022-01-06T04:58:31Z) - Atlas Generative Models and Geodesic Interpolation [0.20305676256390928]
我々は,Atlas Generative Models (AGMs) の一般クラスを定義する。
グラフに基づく測地線のアルゴリズムをAGMの設定に一般化してこれを実証し、その性能を実験的に検証する。
論文 参考訳(メタデータ) (2021-01-30T16:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。