論文の概要: Flows for Flows: Morphing one Dataset into another with Maximum
Likelihood Estimation
- arxiv url: http://arxiv.org/abs/2309.06472v1
- Date: Tue, 12 Sep 2023 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 16:52:50.188613
- Title: Flows for Flows: Morphing one Dataset into another with Maximum
Likelihood Estimation
- Title(参考訳): flow for flow: 最大確率推定でデータセットを別のデータにモーフィングする
- Authors: Tobias Golling, Samuel Klein, Radha Mastandrea, Benjamin Nachman, John
Andrew Raine
- Abstract要約: 本稿では,フローを正規化してひとつのデータセットを別のデータセットに変形させるフローのためのフローと呼ばれるプロトコルを提案する。
これにより、最大推定値で訓練されたモーフィング戦略が実現される。
条件付き特徴のすべての値に対するモーフィング関数を作成するために、学習したフローを特定の特徴に対して条件付けする方法を示す。
- 参考スコア(独自算出の注目度): 2.240286607818126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many components of data analysis in high energy physics and beyond require
morphing one dataset into another. This is commonly solved via reweighting, but
there are many advantages of preserving weights and shifting the data points
instead. Normalizing flows are machine learning models with impressive
precision on a variety of particle physics tasks. Naively, normalizing flows
cannot be used for morphing because they require knowledge of the probability
density of the starting dataset. In most cases in particle physics, we can
generate more examples, but we do not know densities explicitly. We propose a
protocol called flows for flows for training normalizing flows to morph one
dataset into another even if the underlying probability density of neither
dataset is known explicitly. This enables a morphing strategy trained with
maximum likelihood estimation, a setup that has been shown to be highly
effective in related tasks. We study variations on this protocol to explore how
far the data points are moved to statistically match the two datasets.
Furthermore, we show how to condition the learned flows on particular features
in order to create a morphing function for every value of the conditioning
feature. For illustration, we demonstrate flows for flows for toy examples as
well as a collider physics example involving dijet events
- Abstract(参考訳): 高エネルギー物理学におけるデータ分析の多くのコンポーネントは、あるデータセットを別のデータセットに変形させる必要がある。
これは一般に再重み付けによって解決されるが、重みを保ち、代わりにデータポイントをシフトする多くの利点がある。
正規化フローは、様々な素粒子物理学タスクにおいて印象的な精度を持つ機械学習モデルである。
フローの正規化は、開始データセットの確率密度の知識を必要とするため、モーフィングには使用できない。
粒子物理学のほとんどの場合、より多くの例を生成できるが、明確に密度は分かっていない。
いずれのデータセットの確率密度も明確に分かっていても,フローの正規化をトレーニングするためのflows for flowというプロトコルを提案する。
これにより、最大推定値で訓練されたモーフィング戦略が実現され、関連するタスクに非常に効果的であることが示されている。
我々は,このプロトコルのバリエーションを調査し,データポイントの移動距離を統計的に比較した。
さらに,条件付け機能の各値に対してモーフィング関数を作成するために,特定の特徴について学習フローを条件付けする方法を示す。
例えば、おもちゃの例のフローや、ディジェット現象を含む衝突器物理学の例を示す。
関連論文リスト
- How Does Data Diversity Shape the Weight Landscape of Neural Networks? [2.89287673224661]
本稿では, ニューラルネットワークのパラメータ空間に対する降雨量, 重量減衰量, 騒音増大の影響について検討する。
我々は、多様なデータが、ドロップアウトと同様の方法で重量景観に影響を与えることを観察する。
合成データにより、実際の入力データにより多くの多様性がもたらされ、アウト・オブ・ディストリビューションテストインスタンスの性能が向上する、と結論付けている。
論文 参考訳(メタデータ) (2024-10-18T16:57:05Z) - One flow to correct them all: improving simulations in high-energy physics with a single normalising flow and a switch [0.06597195879147556]
シミュレーションの不完全さは 観測されたデータと シミュレーションされた出来事の間に 大きな違いをもたらす
簡単なアーキテクチャを用いて,1つの多次元分布(シミュレーション)を1つのデータ(データ)に変換する補正手法を提案する。
本手法の有効性を,観測対象の非自明な誤モデリングを用いた物理刺激型玩具データセットに適用し,その相関性を示す。
論文 参考訳(メタデータ) (2024-03-27T14:03:41Z) - Binary Quantification and Dataset Shift: An Experimental Investigation [54.14283123210872]
量子化は教師付き学習タスクであり、未学習データの集合のクラス有病率の予測器を訓練する。
定量化と他のタイプのデータセットシフトの関係は、いまだ大きく、未調査のままである。
本稿では,これらのシフトに影響を受けるデータセットの生成プロトコルを確立することにより,データセットシフトの種類を詳細に分類する手法を提案する。
論文 参考訳(メタデータ) (2023-10-06T20:11:27Z) - Machine Learning Force Fields with Data Cost Aware Training [94.78998399180519]
分子動力学(MD)シミュレーションを加速するために機械学習力場(MLFF)が提案されている。
最もデータ効率のよいMLFFであっても、化学精度に達するには数百フレームの力とエネルギーのラベルが必要になる。
我々は、安価な不正確なデータと高価な正確なデータの組み合わせを利用して、MLFFのデータコストを下げる多段階計算フレームワークASTEROIDを提案する。
論文 参考訳(メタデータ) (2023-06-05T04:34:54Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - FastIF: Scalable Influence Functions for Efficient Model Interpretation
and Debugging [112.19994766375231]
影響関数は、テスト予測のためのトレーニングデータポイントの「影響」を近似する。
fastifは、実行時間を大幅に改善する関数に影響を与えるための、単純な修正セットです。
本実験はモデル解釈とモデル誤差の修正における影響関数の可能性を示す。
論文 参考訳(メタデータ) (2020-12-31T18:02:34Z) - Can we learn where people come from? Retracing of origins in merging
situations [0.0]
センサデータから得られる密度ヒートマップをランダムな森林レセプタの入力として利用し,原産地分布の予測を行う。
シミュレーションデータセット、実験データ、および実験データとシミュレーションデータの両方を備えたハイブリッドアプローチの3つの異なるデータセットを研究します。
論文 参考訳(メタデータ) (2020-12-21T17:42:14Z) - ACRONYM: A Large-Scale Grasp Dataset Based on Simulation [64.37675024289857]
ACRONYMは物理シミュレーションに基づくロボットグリップ計画のためのデータセットである。
データセットには17.7Mのパラレルジャウグリップが含まれ、262の異なるカテゴリから8872のオブジェクトにまたがっている。
我々は、この大規模で多様なデータセットの価値を、2つの最先端の学習に基づく把握計画アルゴリズムの訓練に利用することで示す。
論文 参考訳(メタデータ) (2020-11-18T23:24:00Z) - Dataset Dynamics via Gradient Flows in Probability Space [15.153110906331733]
本稿では,データ生成連立確率分布の最適化を目的とした,データセット変換のための新しいフレームワークを提案する。
このフレームワークは、分類データセットに制約を課したり、トランスファーラーニングに適応させたり、固定またはブラックボックスモデルを再使用して -- 高精度で -- 以前は見つからなかったデータセットを分類するために使用することができる。
論文 参考訳(メタデータ) (2020-10-24T03:29:22Z) - Deep transformation models: Tackling complex regression problems with
neural network based transformation models [0.0]
確率回帰のための深層変換モデルを提案する。
これは、結果の不確実性を捉える最も徹底的な方法である条件付き確率分布全体を推定する。
本手法は複雑な入力データに対して有効であり,画像データにCNNアーキテクチャを適用して実演する。
論文 参考訳(メタデータ) (2020-04-01T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。