論文の概要: Leveraging universality of jet taggers through transfer learning
- arxiv url: http://arxiv.org/abs/2203.06210v1
- Date: Fri, 11 Mar 2022 19:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-20 06:32:43.768373
- Title: Leveraging universality of jet taggers through transfer learning
- Title(参考訳): 転写学習によるジェットタグの普遍性向上
- Authors: Fr\'ed\'eric A. Dreyer, Rados{\l}aw Grabarczyk and Pier Francesco
Monni
- Abstract要約: 本稿では,高速かつデータ効率の高いジェットタグの開発にトランスファーラーニング技術を用いる方法について検討する。
トレーニングプロセスの高速化により、信頼性の高いタグを桁違いに少ないデータで取得できることが判明した。
これは、コライダー物理学実験におけるそのようなツールの使用を促進するための有望な道を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A significant challenge in the tagging of boosted objects via
machine-learning technology is the prohibitive computational cost associated
with training sophisticated models. Nevertheless, the universality of QCD
suggests that a large amount of the information learnt in the training is
common to different physical signals and experimental setups. In this article,
we explore the use of transfer learning techniques to develop fast and
data-efficient jet taggers that leverage such universality. We consider the
graph neural networks LundNet and ParticleNet, and introduce two prescriptions
to transfer an existing tagger into a new signal based either on fine-tuning
all the weights of a model or alternatively on freezing a fraction of them. In
the case of $W$-boson and top-quark tagging, we find that one can obtain
reliable taggers using an order of magnitude less data with a corresponding
speed-up of the training process. Moreover, while keeping the size of the
training data set fixed, we observe a speed-up of the training by up to a
factor of three. This offers a promising avenue to facilitate the use of such
tools in collider physics experiments.
- Abstract(参考訳): 機械学習技術による強化オブジェクトのタグ付けにおける重要な課題は、高度なモデルのトレーニングに関連する計算コストの禁止である。
それにもかかわらず、QCDの普遍性は、トレーニングで学んだ大量の情報が、異なる物理信号や実験的な設定に共通していることを示唆している。
本稿では,このような普遍性を活用した高速でデータ効率の良いジェットタガーの開発に,転送学習技術を用いることについて検討する。
グラフニューラルネットワークLundNetとParticleNetについて検討し、既存のタグをモデルのすべての重みを微調整するか、あるいはその一部を凍結するかに基づいて、新しい信号に転送するための2つの処方則を導入する。
w$-boson と top-quark tagging の場合、トレーニングプロセスの速度アップとともに、桁違いに少ないデータで信頼できるタグを取得することができる。
さらに,トレーニングデータセットのサイズを一定に保ちながら,最大3倍の速さでトレーニングのスピードアップを観察する。
これにより、衝突型加速器の物理実験におけるそのようなツールの使用を促進する有望な方法が提供される。
関連論文リスト
- LOTUS: Improving Transformer Efficiency with Sparsity Pruning and Data Lottery Tickets [0.0]
ビジョントランスフォーマーはコンピュータビジョンに革命をもたらしたが、その計算要求はトレーニングとデプロイメントの課題を提示している。
本稿では,データの宝くじ選択と空間プルーニングを利用して,精度を維持しながら視覚変換器のトレーニングを高速化する新しい手法であるLOTUSを紹介する。
論文 参考訳(メタデータ) (2024-05-01T23:30:12Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Fourier neural operator for learning solutions to macroscopic traffic
flow models: Application to the forward and inverse problems [7.429546479314462]
非線形双曲型偏微分方程式の解を学習するためのニューラルネットワークフレームワークについて検討する。
オペレータは、不均一でスパースなトラフィック入力データを完全なマクロなトラフィック状態にマッピングするように訓練される。
リングロードネットワークと都市信号化道路の密度動態の予測に優れた精度が得られた。
論文 参考訳(メタデータ) (2023-08-14T10:22:51Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Continual Learning with Transformers for Image Classification [12.028617058465333]
コンピュータビジョンでは、ニューラルネットワークモデルは、過去に何を学んだかを忘れずに、新しい概念を継続的に学習する。
本研究では,適応型適応器の蒸留法 (ADA) を開発した。
本手法は,モデルを再学習することなく,優れた予測性能を維持することを実証的に示す。
論文 参考訳(メタデータ) (2022-06-28T15:30:10Z) - Physics-enhanced deep surrogates for partial differential equations [30.731686639510517]
本稿では, 複雑な物理系のための高速サロゲートモデル開発に向けて, 物理強化ディープサロゲート(PEDS)アプローチを提案する。
具体的には,低忠実で説明可能な物理シミュレータとニューラルネットワークジェネレータの組み合わせを提案する。
論文 参考訳(メタデータ) (2021-11-10T18:43:18Z) - ProgFed: Effective, Communication, and Computation Efficient Federated Learning by Progressive Training [65.68511423300812]
本稿では,効率的なフェデレート学習のためのプログレッシブトレーニングフレームワークであるProgFedを提案する。
ProgFedは計算と双方向通信のコストを本質的に低減し、最終モデルの強力な性能を維持している。
以上の結果から, ProgFed はフルモデルの標準トレーニングと同等の速度で収束することがわかった。
論文 参考訳(メタデータ) (2021-10-11T14:45:00Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Ternary Compression for Communication-Efficient Federated Learning [17.97683428517896]
フェデレートされた学習は、プライバシ保護とセキュアな機械学習に対する潜在的なソリューションを提供する。
本稿では,第3次フェデレーション平均化プロトコル(T-FedAvg)を提案する。
その結果,提案したT-FedAvgは通信コストの低減に有効であり,非IIDデータの性能も若干向上できることがわかった。
論文 参考訳(メタデータ) (2020-03-07T11:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。