論文の概要: Improving $Λ$ Signal Extraction with Domain Adaptation via Normalizing Flows
- arxiv url: http://arxiv.org/abs/2403.14076v1
- Date: Thu, 21 Mar 2024 01:54:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 15:46:42.782839
- Title: Improving $Λ$ Signal Extraction with Domain Adaptation via Normalizing Flows
- Title(参考訳): 正規化フローによる領域適応による$$$信号抽出の改善
- Authors: Rowan Kelleher, Matthew McEneaney, Anselm Vossen,
- Abstract要約: この研究は、CLAS12における$Lambda$Hyperonsの信号抽出を改善するためのフローベースニューラルネットワークの能力について検討した。
我々は、潜在物理空間と正規分布を変換するフローネットワークのトレーニングに成功した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The present study presents a novel application for normalizing flows for domain adaptation. The study investigates the ability of flow based neural networks to improve signal extraction of $\Lambda$ Hyperons at CLAS12. Normalizing Flows can help model complex probability density functions that describe physics processes, enabling uses such as event generation. $\Lambda$ signal extraction has been improved through the use of classifier networks, but differences in simulation and data domains limit classifier performance; this study utilizes the flows for domain adaptation between Monte Carlo simulation and data. We were successful in training a flow network to transform between the latent physics space and a normal distribution. We also found that applying the flows lessened the dependence of the figure of merit on the cut on the classifier output, meaning that there was a broader range where the cut results in a similar figure of merit.
- Abstract(参考訳): 本研究では,領域適応のための流れの正規化のための新しい応用法を提案する。
この研究は、CLAS12における$\Lambda$ Hyperonsの信号抽出を改善するためのフローベースニューラルネットワークの能力について検討した。
正規化フローは、物理過程を記述する複雑な確率密度関数をモデル化し、イベント生成のような利用を可能にする。
本研究は,モンテカルロシミュレーションとデータ間の領域適応のフローを利用して,分類器ネットワークを用いて信号抽出を行う。
我々は、潜在物理空間と正規分布を変換するフローネットワークのトレーニングに成功した。
また, フローの適用により, 分類器出力のカットに対する有益値の依存性が小さくなり, カットが類似の有益値となる範囲が広くなったことも見出した。
関連論文リスト
- Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - Quantum Normalizing Flows for Anomaly Detection [23.262276593120305]
量子アーキテクチャのための正規化フローを導入し、そのようなフローをモデル化し最適化する方法を説明し、サンプルデータセット上でメソッドを評価する。
提案モデルでは,従来の手法と比較して,異常検出の競合性能を示す。
実験では, 森林の隔離, 局所降水率 (LOF) , 単一クラスSVMとの比較を行った。
論文 参考訳(メタデータ) (2024-02-05T10:28:20Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Free-form Flows: Make Any Architecture a Normalizing Flow [8.163244519983298]
本研究では,変数の変動の勾配を効率的に推定する訓練手法を開発した。
これにより、任意の次元保存ニューラルネットワークが、最大限のトレーニングを通じて生成モデルとして機能することが可能になる。
我々は$E(n)$-equivariantネットワークを用いた分子生成ベンチマークにおいて優れた結果を得た。
論文 参考訳(メタデータ) (2023-10-25T13:23:08Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - Tensorizing flows: a tool for variational inference [0.0]
本稿では,ガウス参照をテンソルネットワークを介して構築した参照分布に置き換える正規化フローの拡張を提案する。
本研究では, 複雑な変分推論タスクにおいて, フローとテンソルネットワークを組み合わせることで, どちらか一方のツールを使わずに得られる結果を改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-03T23:42:22Z) - Flow Matching for Generative Modeling [44.66897082688762]
フローマッチングは、連続正規化フロー(CNF)のトレーニングのためのシミュレーション不要なアプローチである
拡散経路を持つFMを用いることで、より堅牢で安定した拡散モデルの代替となることが判明した。
ImageNet上でFlow Matchingを使用したCNFのトレーニングは、可能性とサンプル品質の両方の観点から最先端のパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2022-10-06T08:32:20Z) - Learning GFlowNets from partial episodes for improved convergence and
stability [56.99229746004125]
生成フローネットワーク(GFlowNets)は、非正規化対象密度の下で離散オブジェクトのシーケンシャルサンプリングを訓練するアルゴリズムである。
GFlowNetsの既存のトレーニング目的は、状態または遷移に局所的であるか、あるいはサンプリング軌道全体にわたって報酬信号を伝達する。
強化学習におけるTD($lambda$)アルゴリズムにインスパイアされたサブトラジェクティブバランス(subtrajectory balance, SubTB($lambda$)を導入する。
論文 参考訳(メタデータ) (2022-09-26T15:44:24Z) - Attentive Contractive Flow with Lipschitz-constrained Self-Attention [25.84621883831624]
注意的収縮フロー(ACF)と呼ばれる新しいアプローチを導入する。
ACFは、フローベースの生成モデル - 収縮フロー - の特別なカテゴリを利用する。
我々は, ACFをプラグアンドプレイ方式で, 各種のアートフローモデルに導入できることを実証した。
論文 参考訳(メタデータ) (2021-09-24T18:02:49Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。