論文の概要: Lepton Flavour Violation Identification in Tau Decay ($\tau^{-}
\rightarrow \mu^{-}\mu^{-}\mu^{+}$) Using Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2205.14828v1
- Date: Mon, 30 May 2022 03:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 18:49:21.992061
- Title: Lepton Flavour Violation Identification in Tau Decay ($\tau^{-}
\rightarrow \mu^{-}\mu^{-}\mu^{+}$) Using Artificial Intelligence
- Title(参考訳): 人工知能を用いたTau Decay(\tau^{-} \rightarrow \mu^{-}\mu^{-}\mu^{+}$)におけるLepton Flavour Violationの同定
- Authors: Reymond Mesuga
- Abstract要約: 理論上、質量を持つニュートリノは、レプトン・フレーバー・ヴァイオレーション(LFV)と呼ばれる対称性を持たないレプトン・フレーバーをもたらす可能性がある。
近年の科学者は、LHCbとモンテカルロシミュレーションを組み合わせたデータからLFVのようなプロセスを生み出している。
本稿では,Kaggle の Flavours of Physics: Finding $tau rightarrow mumu$ competition の著者の貢献を報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The discovery of neutrino oscillation, proving that neutrinos do have masses,
reveals the misfits of particles in the current Standard Model (SM) theory. In
theory, neutrinos having masses could result in lepton flavour not being a
symmetry called Lepton Flavour Violation (LFV). While SM theory extensions
allowed LFV processes, their branching fractions are too small, making them
unobservable even with the strongest equipment up-to-date. With that,
scientists in recent years have generated LFV-like processes from the combined
LHCb and Monte-Carlo-Simulated data in an attempt to identify LFV using
Artificial Intelligence (AI), specifically Machine Learning (ML) and Deep
Learning (DL). This paper reports the contribution of the author on Flavours of
Physics: Finding $\tau \rightarrow \mu\mu\mu$ competition on Kaggle. The
performance of several algorithms in AI has been presented, such as XGBoost,
LightGBM, custom 1-D Dense Block Neural Networks (DBNNs), and custom 1-D
Convolutional Neural Networks (CNNs) in identifying LFV signals, specifically
$\tau^{-} \rightarrow \mu^{-}\mu^{-}\mu^{+}$ decay from the combined LHCb and
Monte-Carlo-Simulated data that imitates the signatures of the said decay.
Kolmogorov-Smirnov (KS) and Cramer-von Mises (CvM) tests were also conducted to
verify the validity of predictions for each of the trained algorithms. The
result shows decent performances among algorithms, except for the LightGBM, for
failing the CvM test, and a 20-layered CNN for having recorded a considerably
low AUC. Meanwhile, XGBoost and a 10-layered DBNN recorded the highest AUC of
0.88. The main contribution of this paper is the extensive experiment involving
custom DBNN and CNN algorithms in different layers, all of which have been
rarely used in the past years in identifying LFV-like signatures, unlike GBMs
and tree-based algorithms, which have been more popular in the said task.
- Abstract(参考訳): ニュートリノ振動の発見はニュートリノに質量があることを証明し、現在の標準模型(SM)理論における粒子の不適合を明らかにする。
理論上、質量を持つニュートリノはレプトンフレバー違反(lepton flavour violation、lfv)と呼ばれる対称性を持たない。
sm理論の拡張はlfvプロセスを可能にするが、分岐分数は小さすぎるため、最新の装置でも観測できない。
これにより、近年の科学者は、人工知能(AI)、特に機械学習(ML)とディープラーニング(DL)を用いてLFVを識別するために、LHCbとモンテカルロシミュレーションデータを組み合わせたLFVライクなプロセスを生成する。
本稿では、著者のFindering $\tau \rightarrow \mu\mu\mu$ competition on Kaggleについて報告する。
xgboost, lightgbm, custom 1-d dense block neural networks (dbnns), custom 1-d convolutional neural networks (cnns) など,aiにおけるいくつかのアルゴリズムのパフォーマンスが,lfv信号の識別,具体的には$\tau^{-} \rightarrow \mu^{-}\mu^{-}\mu^{+}$ decay from the combined lhcb and monte-carlo-simulated data that used the signatures of the decay(英語版)である。
Kolmogorov-Smirnov (KS) と Cramer-von Mises (CvM) の試験も行われた。
その結果、CvMテストに失敗したLightGBMと、かなり低いAUCを記録した20層CNNを除いて、アルゴリズム間で十分な性能を示した。
一方、XGBoostと10層DBNNのAUCは0.88だった。
本論文の主な貢献は,各層に独自のDBNNアルゴリズムとCNNアルゴリズムを組み込んだ広範囲な実験であり,これらは全て,GBMや木に基づくアルゴリズムとは異なり,LFV様シグネチャの識別に過去数年間にはほとんど使われていない。
関連論文リスト
- Augmented Neural Fine-Tuning for Efficient Backdoor Purification [16.74156528484354]
最近の研究では、様々なバックドア攻撃に対するディープニューラルネットワーク(DNN)の脆弱性が明らかにされている。
神経活動の最適再編成を目的としたニューラルマスクファインチューニング(NFT)を提案する。
NFTはトリガー合成プロセスを緩和し、逆探索モジュールの要求をなくす。
論文 参考訳(メタデータ) (2024-07-14T02:36:54Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Constraining cosmological parameters from N-body simulations with
Variational Bayesian Neural Networks [0.0]
乗法正規化フロー (MNFs) はBNNのパラメータの近似後流の族である。
我々は,標準BNNとフリップアウト推定器についてMNFの比較を行った。
MNFは、変動近似によって導入されたバイアスを緩和する真の後部へのより現実的な予測分布を提供する。
論文 参考訳(メタデータ) (2023-01-09T16:07:48Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - Robust Collaborative Learning with Linear Gradient Overhead [7.250306457887471]
分散SGD(あるいはD-SGD)のような協調学習アルゴリズムは、故障する機械の傾向が強い。
我々は、標準仮定の下で確実に堅牢な新しいアルゴリズムであるMoNNAを提案する。
運動量とモデルドリフトの間の張力を制御する方法を提案する。
論文 参考訳(メタデータ) (2022-09-22T11:26:25Z) - Quantification of Deep Neural Network Prediction Uncertainties for VVUQ
of Machine Learning Models [1.929039244357139]
この研究は、高価な物理モデルのための代理モデルとして使用されるとき、ディープニューラルネットワーク(DNN)の予測や近似の不確実性を定量化することを目的としている。
モンテカルロ・ドロップアウト(MCD)、ディープ・アンサンブル(DE)、ベイズニューラルネットワーク(BNN)の3つの手法を比較した。
論文 参考訳(メタデータ) (2022-06-27T20:49:57Z) - Revisiting Gaussian Neurons for Online Clustering with Unknown Number of
Clusters [0.0]
参照するクラスタ数の最大限のオンラインクラスタリングを行う、新しいローカルラーニングルールが提示される。
実験結果は,学習パラメータの安定性を多数のトレーニングサンプルで実証した。
論文 参考訳(メタデータ) (2022-05-02T14:01:40Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。