論文の概要: Automatic Differentiation in ROOT
- arxiv url: http://arxiv.org/abs/2004.04435v1
- Date: Thu, 9 Apr 2020 09:18:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 03:11:31.056551
- Title: Automatic Differentiation in ROOT
- Title(参考訳): ROOTにおける自動微分
- Authors: Vassil Vassilev (1), Aleksandr Efremov (1) and Oksana Shadura (2) ((1)
Princeton University, (2) University of Nebraska Lincoln)
- Abstract要約: 数学と計算機代数において、自動微分 (AD) は、コンピュータプログラムによって指定された関数の微分を評価するための一連の技術である。
本稿では、任意のC/C++関数の導関数を生成するために、ClingがサポートするROOTで利用可能なAD技術を提案する。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In mathematics and computer algebra, automatic differentiation (AD) is a set
of techniques to evaluate the derivative of a function specified by a computer
program. AD exploits the fact that every computer program, no matter how
complicated, executes a sequence of elementary arithmetic operations (addition,
subtraction, multiplication, division, etc.), elementary functions (exp, log,
sin, cos, etc.) and control flow statements. AD takes source code of a function
as input and produces source code of the derived function. By applying the
chain rule repeatedly to these operations, derivatives of arbitrary order can
be computed automatically, accurately to working precision, and using at most a
small constant factor more arithmetic operations than the original program.
This paper presents AD techniques available in ROOT, supported by Cling, to
produce derivatives of arbitrary C/C++ functions through implementing source
code transformation and employing the chain rule of differential calculus in
both forward mode and reverse mode. We explain its current integration for
gradient computation in TFormula. We demonstrate the correctness and
performance improvements in ROOT's fitting algorithms.
- Abstract(参考訳): 数学と計算機代数において、自動微分 (AD) は、コンピュータプログラムによって指定された関数の微分を評価するための一連の技術である。
adは、どんなに複雑であっても、全てのコンピュータプログラムが基本的な算術演算(加算、減算、乗算、除算など)、初等関数(exp、log、sin、cosなど)、制御フローステートメントのシーケンスを実行するという事実を利用する。
ADは関数のソースコードを入力とし、派生関数のソースコードを生成する。
これらの演算にチェーン規則を繰り返し適用することにより、任意の順序の微分を、作業精度に正確に自動的に計算し、少なくとも元のプログラムよりも小さな定数係数で計算することができる。
本稿では,ソースコード変換を実装し,フォワードモードとリバースモードの両方における微分解析の連鎖則を用いて任意のc/c++関数の導出を生成するために,clingがサポートするrootで利用可能なad手法を提案する。
TFormulaにおける勾配計算の現在の統合について説明する。
ROOTの適合アルゴリズムにおける精度と性能の改善について述べる。
関連論文リスト
- CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - A Constrained BA Algorithm for Rate-Distortion and Distortion-Rate
Functions [13.570794979535934]
速度歪み関数に対するBlahut-Arimoto (BA)アルゴリズムの修正
修正アルゴリズムは、与えられた対象歪みに対してRD関数を直接計算する。
論文 参考訳(メタデータ) (2023-05-04T08:41:03Z) - Efficient and Sound Differentiable Programming in a Functional
Array-Processing Language [4.1779847272994495]
自動微分 (AD) はプログラムで表される関数の微分を計算する手法である。
本稿では,高次関数型配列処理言語のためのADシステムを提案する。
フォワードモードADによる計算は、逆モードと同じくらい効率的に行うことができる。
論文 参考訳(メタデータ) (2022-12-20T14:54:47Z) - Neural Network Verification as Piecewise Linear Optimization:
Formulations for the Composition of Staircase Functions [2.088583843514496]
混合整数計画法(MIP)を用いたニューラルネットワーク検証手法を提案する。
ネットワーク内の各ニューロンに対して一方向線形活性化関数を用いた強い定式化を導出する。
また、入力次元において超線形時間で実行される分離手順を導出する。
論文 参考訳(メタデータ) (2022-11-27T03:25:48Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Bias-Scalable Near-Memory CMOS Analog Processor for Machine Learning [6.548257506132353]
バイアススケーリング可能な近似アナログコンピューティングは、異なる性能仕様の機械学習(ML)プロセッサを実装する上で魅力的である。
本稿では、マージン・プロパゲーションの原理を一般化したバイアス計算可能な近似アナログ演算回路の実装を実証する。
論文 参考訳(メタデータ) (2022-02-10T13:26:00Z) - Automatic differentiation for Riemannian optimization on low-rank matrix
and tensor-train manifolds [71.94111815357064]
科学計算および機械学習アプリケーションでは、行列およびより一般的な多次元配列(テンソル)は、しばしば低ランク分解の助けを借りて近似することができる。
低ランク近似を見つけるための一般的なツールの1つはリーマン最適化を使うことである。
論文 参考訳(メタデータ) (2021-03-27T19:56:00Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。