論文の概要: CURTAINs Flows For Flows: Constructing Unobserved Regions with Maximum
Likelihood Estimation
- arxiv url: http://arxiv.org/abs/2305.04646v1
- Date: Mon, 8 May 2023 11:58:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 14:28:46.431737
- Title: CURTAINs Flows For Flows: Constructing Unobserved Regions with Maximum
Likelihood Estimation
- Title(参考訳): 流れのカーテン流--最大確率推定による観測されていない領域の構築
- Authors: Debajyoti Sengupta, Samuel Klein, John Andrew Raine, Tobias Golling
- Abstract要約: 両領域間の条件正規化フローをトレーニングすることでCURTAINs法を大幅に改善する。
CURTAINF4Fは、他の完全なデータ駆動アプローチよりも多くの信号領域をカバーするために、計算資源をかなり少なくする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model independent techniques for constructing background data templates using
generative models have shown great promise for use in searches for new physics
processes at the LHC. We introduce a major improvement to the CURTAINs method
by training the conditional normalizing flow between two side-band regions
using maximum likelihood estimation instead of an optimal transport loss. The
new training objective improves the robustness and fidelity of the transformed
data and is much faster and easier to train.
We compare the performance against the previous approach and the current
state of the art using the LHC Olympics anomaly detection dataset, where we see
a significant improvement in sensitivity over the original CURTAINs method.
Furthermore, CURTAINsF4F requires substantially less computational resources to
cover a large number of signal regions than other fully data driven approaches.
When using an efficient configuration, an order of magnitude more models can be
trained in the same time required for ten signal regions, without a significant
drop in performance.
- Abstract(参考訳): 生成モデルを用いた背景データテンプレート構築のためのモデル独立技術は、lhcにおける新しい物理プロセスの探索に非常に有用である。
最適輸送損失ではなく,最大推定値を用いて2つの側バンド領域間の条件正規化フローをトレーニングすることにより,CURTAINs法に大きな改善を加えた。
新しいトレーニング目標は、変換されたデータの堅牢性と忠実性を改善し、より高速で、訓練しやすくする。
我々は,lhcオリンピック異常検出データセットを用いて,これまでの手法と現在の技術との比較を行い,従来のカーテン法に比べて感度が大幅に向上することを示した。
さらに、CURTAINF4Fは、他の完全なデータ駆動アプローチよりも多くの信号領域をカバーするために、計算資源をかなり少なくする。
効率的な構成を使用する場合、性能が大幅に低下することなく、10の信号領域で1桁以上のモデルを同時に訓練することができる。
関連論文リスト
- NUDGE: Lightweight Non-Parametric Fine-Tuning of Embeddings for Retrieval [0.7646713951724011]
既存のアプローチは、事前訓練されたモデル自体を微調整するか、より効率的に、事前訓練されたモデルの出力を変換するためにアダプタモデルを訓練する。
NUDGEは、新しい非パラメトリック埋め込みファインチューニングアプローチのファミリーである。
NUDGEは、$k$-NN検索の精度を最大化するために、データレコードの埋め込みを直接修正する。
論文 参考訳(メタデータ) (2024-09-04T00:10:36Z) - Optimizing the Optimal Weighted Average: Efficient Distributed Sparse Classification [50.406127962933915]
ACOWAは、小さなランタイムの増加とともに、顕著に優れた近似品質を達成するための追加の通信を可能にする。
その結果、ACOWAは経験的リスク最小化に忠実で、他の分散アルゴリズムよりもかなり高い精度で解が得られることがわかった。
論文 参考訳(メタデータ) (2024-06-03T19:43:06Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Feasible Low-thrust Trajectory Identification via a Deep Neural Network
Classifier [1.5076964620370268]
本研究は、最適化プロセスに先立って、実現可能な低推力移動を正確に識別するディープニューラルネットワーク(DNN)を提案する。
DNN分類器の全体的な精度は97.9%であり、テストアルゴリズムの中では最高の性能である。
論文 参考訳(メタデータ) (2022-02-10T11:34:37Z) - Transfer learning to improve streamflow forecasts in data sparse regions [0.0]
本研究では,データスパース領域におけるストリームフロー予測の一般化性能向上のために,微調整およびパラメータ転送による伝達学習(TL)の方法論について検討する。
本稿では,Long Short-Term Memory(LSTM)という形式で,十分に大きなソースドメインデータセットに適合する標準のリカレントニューラルネットワークを提案する。
本稿では,モデルの空間的および時間的成分を分離し,モデルを一般化する訓練を行うことにより,水文学応用のための伝達学習手法を実装する手法を提案する。
論文 参考訳(メタデータ) (2021-12-06T14:52:53Z) - Towards More Efficient Federated Learning with Better Optimization
Objects [1.126965032229697]
Federated Learning(FL)は、プライバシ保護された機械学習パラダイムであり、データをアップロードすることなく、モデルを直接エッジでトレーニングすることができる。
FLが実用的に直面している最大の課題の1つは、エッジノードデータの均一性であり、収束速度を遅くし、モデルの性能を低下させる。
本稿では,過去に得られた全てのモデルのアグリゲーションを新たな制約対象として利用して,そのようなアルゴリズムの性能をさらに向上することを提案する。
論文 参考訳(メタデータ) (2021-08-19T09:29:17Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - ScopeFlow: Dynamic Scene Scoping for Optical Flow [94.42139459221784]
我々は,光流の一般的なトレーニングプロトコルを変更することを提案する。
この改善は、挑戦的なデータをサンプリングする際のバイアスを観察することに基づいている。
トレーニングプロトコルでは,正規化と拡張の双方が減少することが判明した。
論文 参考訳(メタデータ) (2020-02-25T09:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。