論文の概要: Hyperparameter Optimization of Generative Adversarial Network Models for
High-Energy Physics Simulations
- arxiv url: http://arxiv.org/abs/2208.07715v1
- Date: Fri, 12 Aug 2022 20:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:11:30.585905
- Title: Hyperparameter Optimization of Generative Adversarial Network Models for
High-Energy Physics Simulations
- Title(参考訳): 高エネルギー物理シミュレーションのための生成逆ネットワークモデルのハイパーパラメータ最適化
- Authors: Vincent Dumont, Xiangyang Ju, Juliane Mueller
- Abstract要約: Generative Adversarial Network(GAN)は、学習によって高忠実な合成データを生成する強力なツールである。
この研究は、大型ハドロン衝突型加速器のデータに対して、GANを効率的にチューニングするための最初の洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Generative Adversarial Network (GAN) is a powerful and flexible tool that
can generate high-fidelity synthesized data by learning. It has seen many
applications in simulating events in High Energy Physics (HEP), including
simulating detector responses and physics events. However, training GANs is
notoriously hard and optimizing their hyperparameters even more so. It normally
requires many trial-and-error training attempts to force a stable training and
reach a reasonable fidelity. Significant tuning work has to be done to achieve
the accuracy required by physics analyses. This work uses the physics-agnostic
and high-performance-computer-friendly hyperparameter optimization tool HYPPO
to optimize and examine the sensitivities of the hyperparameters of a GAN for
two independent HEP datasets. This work provides the first insights into
efficiently tuning GANs for Large Hadron Collider data. We show that given
proper hyperparameter tuning, we can find GANs that provide high-quality
approximations of the desired quantities. We also provide guidelines for how to
go about GAN architecture tuning using the analysis tools in HYPPO.
- Abstract(参考訳): generative adversarial network (gan)は、学習によって高忠実度合成データを生成できる強力で柔軟なツールである。
高エネルギー物理学(HEP)における事象をシミュレートする多くの応用があり、検出器の応答や物理イベントをシミュレートする。
しかし、gansのトレーニングは困難で、ハイパーパラメータの最適化がさらに難しいことで悪名高い。
通常、安定した訓練を強制し、合理的な忠実度に達するためには、多くの試行錯誤訓練が必要である。
物理解析に必要な精度を達成するためには、重要なチューニング作業が必要となる。
この研究は、物理学に依存しない高性能コンピュータフレンドリなハイパーパラメータ最適化ツールHYPPOを使用して、2つの独立したHEPデータセットに対するGANのハイパーパラメータの感度を最適化し、検証する。
この研究は、大型ハドロン衝突型加速器のデータを効率的に調整するための最初の洞察を提供する。
適切なハイパーパラメータチューニングが与えられると、所望の量の高品質な近似を提供するganが見つかる。
また、HYPPOの分析ツールを用いて、GANアーキテクチャチューニングを行うためのガイドラインも提供する。
関連論文リスト
- Optimizing Hyperparameters for Quantum Data Re-Uploaders in Calorimetric Particle Identification [11.099632666738177]
本稿では,1量子ビットデータ再アップロード(QRU)量子モデルの粒子分類への応用について述べる。
このモデルは、強力な分類性能を提供しながら、最小の量子ビットを必要とする。
論文 参考訳(メタデータ) (2024-12-16T23:10:00Z) - Efficient Hyperparameter Importance Assessment for CNNs [1.7778609937758323]
本稿では,畳み込みニューラルネットワーク(CNN)におけるハイパーパラメータの重み付けを,N-RReliefFというアルゴリズムを用いて定量化する。
我々は10の人気のある画像分類データセットから1万以上のCNNモデルをトレーニングし、広範囲にわたる研究を行う。
論文 参考訳(メタデータ) (2024-10-11T15:47:46Z) - Streamlining Ocean Dynamics Modeling with Fourier Neural Operators: A Multiobjective Hyperparameter and Architecture Optimization Approach [5.232806761554172]
我々は,海洋モデルに適したニューラルネットワークの開発を効率化するために,DeepHyperの多目的最適化に先進的な探索アルゴリズムを用いる。
本研究では, 海洋力学予測におけるFNOの利用を向上する手法を示し, 精度を向上したスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2024-04-07T14:29:23Z) - Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Locality-Sensitive Hashing-Based Efficient Point Transformer with Applications in High-Energy Physics [11.182510067821745]
本研究では,大規模クラウド処理に最適化された新しいトランスモデルを提案する。
本モデルは局所帰納バイアスを統合し,ハードウェアフレンドリーな正規演算とほぼ直線的な複雑性を実現する。
大規模クラウドデータに対するカーネル近似において,LSH(Locality-sensitive hashing),特にOR & AND-construction LSH(OR & AND-construction LSH)の優位性が示された。
論文 参考訳(メタデータ) (2024-02-19T20:48:09Z) - Gradual Optimization Learning for Conformational Energy Minimization [69.36925478047682]
ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-11-05T11:48:08Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Automatic Setting of DNN Hyper-Parameters by Mixing Bayesian
Optimization and Tuning Rules [0.6875312133832078]
トレーニングおよび検証セット上で,ネットワークの結果を評価し解析するための新しいアルゴリズムを構築した。
我々は、一連のチューニングルールを使用して、新しいハイパーパラメータと/またはハイパーパラメータ検索スペースを減らし、より良い組み合わせを選択する。
論文 参考訳(メタデータ) (2020-06-03T08:53:48Z) - Rethinking the Hyperparameters for Fine-tuning [78.15505286781293]
事前訓練されたImageNetモデルからの微調整は、様々なコンピュータビジョンタスクのデファクトスタンダードとなっている。
ファインチューニングの現在のプラクティスは、通常、ハイパーパラメータのアドホックな選択を選択することである。
本稿では、微調整のためのハイパーパラメータの設定に関するいくつかの一般的なプラクティスを再検討する。
論文 参考訳(メタデータ) (2020-02-19T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。