論文の概要: Branches of a Tree: Taking Derivatives of Programs with Discrete and
Branching Randomness in High Energy Physics
- arxiv url: http://arxiv.org/abs/2308.16680v1
- Date: Thu, 31 Aug 2023 12:32:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 14:34:07.964381
- Title: Branches of a Tree: Taking Derivatives of Programs with Discrete and
Branching Randomness in High Energy Physics
- Title(参考訳): 木の枝:高エネルギー物理学における離散的および分岐的ランダム性を持つプログラムの微分を取る
- Authors: Michael Kagan and Lukas Heinrich
- Abstract要約: 我々は、最近のAD法を含むいくつかの勾配推定戦略について論じ、それらを簡易な検出器設計実験で比較した。
そうすることで私たちは、私たちの知る限り、最初の完全に差別化可能な分岐プログラムを開発します。
- 参考スコア(独自算出の注目度): 1.0587959762260988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose to apply several gradient estimation techniques to enable the
differentiation of programs with discrete randomness in High Energy Physics.
Such programs are common in High Energy Physics due to the presence of
branching processes and clustering-based analysis. Thus differentiating such
programs can open the way for gradient based optimization in the context of
detector design optimization, simulator tuning, or data analysis and
reconstruction optimization. We discuss several possible gradient estimation
strategies, including the recent Stochastic AD method, and compare them in
simplified detector design experiments. In doing so we develop, to the best of
our knowledge, the first fully differentiable branching program.
- Abstract(参考訳): 本稿では,高エネルギー物理学における離散ランダム性プログラムの微分を可能にするために,いくつかの勾配推定手法を提案する。
このようなプログラムは、分岐プロセスとクラスタリングに基づく分析の存在により、高エネルギー物理学において一般的である。
このようなプログラムの差別化は、検出器設計の最適化、シミュレータチューニング、データ解析と再構築の最適化といった文脈において、勾配に基づく最適化の道を開くことができる。
本稿では,最近の確率的ad法を含む傾斜推定手法について検討し,簡易型検出器設計実験で比較する。
そうすることで、私たちの知る限りでは、最初の完全に差別化可能な分岐プログラムを開発します。
関連論文リスト
- Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - A theoretical and empirical study of new adaptive algorithms with
additional momentum steps and shifted updates for stochastic non-convex
optimization [0.0]
適応最適化アルゴリズムは学習分野の鍵となる柱を表現していると考えられる。
本稿では,異なる非滑らかな目的問題に対する適応運動量法を提案する。
論文 参考訳(メタデータ) (2021-10-16T09:47:57Z) - Evolutionary Algorithms in Approximate Computing: A Survey [0.0]
本稿では、一般的な近似法の一つとして進化近似を扱う。
この論文は、近似計算の文脈で適用された進化近似(EA)に基づくアプローチに関する最初の調査を提供する。
論文 参考訳(メタデータ) (2021-08-16T10:17:26Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - First-Order Methods for Convex Optimization [2.578242050187029]
一階法は、計算量が少なくて精度の低い解を提供する可能性がある。
我々は、様々な重要な結果の完全な証明を行い、いくつかの最適化アルゴリズムの統一的な側面を強調した。
論文 参考訳(メタデータ) (2021-01-04T13:03:38Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - A Dynamical Systems Approach for Convergence of the Bayesian EM
Algorithm [59.99439951055238]
我々は、(離散時間)リアプノフ安定性理論が、必ずしも勾配ベースではない最適化アルゴリズムの分析(および潜在的な設計)において、いかに強力なツールとして役立つかを示す。
本稿では,不完全データベイズフレームワークにおけるパラメータ推定を,MAP-EM (maximum a reari expectation-maximization) と呼ばれる一般的な最適化アルゴリズムを用いて行うことに着目したML問題について述べる。
高速収束(線形あるいは二次的)が達成され,S&Cアプローチを使わずに発表することが困難であった可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-23T01:34:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。