論文の概要: Source-to-Source Automatic Differentiation of OpenMP Parallel Loops
- arxiv url: http://arxiv.org/abs/2111.01861v1
- Date: Tue, 2 Nov 2021 19:40:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 01:29:55.487073
- Title: Source-to-Source Automatic Differentiation of OpenMP Parallel Loops
- Title(参考訳): OpenMP並列ループのソース・ソース自動微分
- Authors: Jan H\"uckelheim and Laurent Hasco\"et
- Abstract要約: 本稿では,OpenMP並列ワークシェアリングループの前方・後方モードにおける精度向上に向けた取り組みについて述べる。
本稿では,生成した派生コードの正しさを判断する枠組みを提案し,OpenMP拡張から微分モデルへの拡張を正当化する。
生成した導関数プログラムの前方・逆モードの性能は逐次モードよりも優れているが,我々の逆モードは入力プログラムよりもよくスケールする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our work toward correct and efficient automatic
differentiation of OpenMP parallel worksharing loops in forward and reverse
mode. Automatic differentiation is a method to obtain gradients of numerical
programs, which are crucial in optimization, uncertainty quantification, and
machine learning. The computational cost to compute gradients is a common
bottleneck in practice. For applications that are parallelized for multicore
CPUs or GPUs using OpenMP, one also wishes to compute the gradients in
parallel. We propose a framework to reason about the correctness of the
generated derivative code, from which we justify our OpenMP extension to the
differentiation model. We implement this model in the automatic differentiation
tool Tapenade and present test cases that are differentiated following our
extended differentiation procedure. Performance of the generated derivative
programs in forward and reverse mode is better than sequential, although our
reverse mode often scales worse than the input programs.
- Abstract(参考訳): 本稿では,OpenMP並列ワークシェアリングループの前方・逆モードにおける精度向上に向けた取り組みについて述べる。
自動微分は、最適化、不確実性定量化、機械学習において重要な数値プログラムの勾配を求める方法である。
勾配を計算する計算コストは、実際には一般的なボトルネックである。
OpenMPを使用したマルチコアCPUやGPU用に並列化されたアプリケーションでは、勾配を並列に計算したいと考えている。
本稿では,生成した派生コードの正しさを判断する枠組みを提案し,OpenMP拡張から微分モデルへの拡張を正当化する。
我々は,このモデルを自動分化ツールタペネードに実装し,拡張した分化手順に従って分化したテストケースを提案する。
生成した導関数プログラムの前方・逆モードの性能は逐次モードよりも優れているが,我々の逆モードは入力プログラムよりもよくスケールする。
関連論文リスト
- Smoothing Methods for Automatic Differentiation Across Conditional
Branches [0.0]
スムース解釈(SI)は、プログラムの出力とガウス核との畳み込みを近似し、原理的にその出力を滑らかにする。
SIと自動微分(AD)を組み合わせることで、スムーズなプログラムの勾配を効率的に計算する。
本稿では,ADとサンプリングを組み合わせたスムーズなプログラムの勾配を推定することにより,基礎となる仮定を回避する新しいモンテカルロ推定法を提案する。
論文 参考訳(メタデータ) (2023-10-05T15:08:37Z) - GloptiNets: Scalable Non-Convex Optimization with Certificates [61.50835040805378]
本稿では,ハイパーキューブやトーラス上のスムーズな関数を扱う証明書を用いた非キューブ最適化手法を提案する。
スペクトルの減衰に固有の対象関数の正則性を活用することにより、正確な証明を取得し、高度で強力なニューラルネットワークを活用することができる。
論文 参考訳(メタデータ) (2023-06-26T09:42:59Z) - ParaGraph: Weighted Graph Representation for Performance Optimization of
HPC Kernels [1.304892050913381]
抽象構文木を拡張した並列アプリケーションのためのグラフベースの新しいプログラム表現を提案する。
提案した表現は,OpenMPコード領域のランタイムを予測するために,グラフニューラルネットワーク(GNN)をトレーニングすることで評価する。
その結果,本手法は実効性があり,実行時予測では 0.004 から 0.01 に RMSE を正規化していることがわかった。
論文 参考訳(メタデータ) (2023-04-07T05:52:59Z) - Efficient and Sound Differentiable Programming in a Functional
Array-Processing Language [4.1779847272994495]
自動微分 (AD) はプログラムで表される関数の微分を計算する手法である。
本稿では,高次関数型配列処理言語のためのADシステムを提案する。
フォワードモードADによる計算は、逆モードと同じくらい効率的に行うことができる。
論文 参考訳(メタデータ) (2022-12-20T14:54:47Z) - Fast Differentiable Matrix Square Root and Inverse Square Root [65.67315418971688]
微分可能な行列平方根と逆平方根を計算するためのより効率的な2つの変種を提案する。
前方伝搬には, Matrix Taylor Polynomial (MTP) を用いる方法と, Matrix Pad'e Approximants (MPA) を使用する方法がある。
一連の数値実験により、両方の手法がSVDやNSの繰り返しと比較してかなりスピードアップすることが示された。
論文 参考訳(メタデータ) (2022-01-29T10:00:35Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - A Deep Learning Inference Scheme Based on Pipelined Matrix
Multiplication Acceleration Design and Non-uniform Quantization [9.454905560571085]
本稿では,パイプライン行列乗算法と非一様量子化法に基づく低消費電力多層パーセプトロン(MLP)加速器を提案する。
その結果,本手法は少ない消費電力で優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2021-10-10T17:31:27Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。