論文の概要: A scheme for automatic differentiation of complex loss functions
- arxiv url: http://arxiv.org/abs/2003.04295v1
- Date: Mon, 2 Mar 2020 02:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 05:32:06.412143
- Title: A scheme for automatic differentiation of complex loss functions
- Title(参考訳): 複素損失関数の自動微分法
- Authors: Chu Guo, Dario Poletti
- Abstract要約: 複素関数の自動微分を実現するための効率的かつシームレスなスキームを提案する。
このスキームは、複素数を使用するニューラルネットワークの実装を著しく単純化することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For a real function, automatic differentiation is such a standard algorithm
used to efficiently compute its gradient, that it is integrated in various
neural network frameworks. However, despite the recent advances in using
complex functions in machine learning and the well-established usefulness of
automatic differentiation, the support of automatic differentiation for complex
functions is not as well-established and widespread as for real functions. In
this work we propose an efficient and seamless scheme to implement automatic
differentiation for complex functions, which is a compatible generalization of
the current scheme for real functions. This scheme can significantly simplify
the implementation of neural networks which use complex numbers.
- Abstract(参考訳): 実関数では、自動微分は勾配を効率的に計算するために使われる標準的なアルゴリズムであり、様々なニューラルネットワークフレームワークに統合されている。
しかし、機械学習における複雑な関数の使用の最近の進歩や、自動微分の確立された有用性にもかかわらず、複雑な関数に対する自動微分のサポートは、実関数ほど十分に確立され、普及していない。
本研究では,実関数に対する現在のスキームの相反する一般化である複素関数の自動微分を実装するための,効率的かつシームレスなスキームを提案する。
このスキームは、複雑な数を使用するニューラルネットワークの実装を著しく単純化することができる。
関連論文リスト
- Hysteresis Activation Function for Efficient Inference [3.5223695602582614]
本稿では,Hysteresis Rectified Linear Unit (HLU) を提案する。
トレーニングと推論のための固定しきい値を持つ従来のアクティベーション関数とは異なり、HLUはバックプロパゲーションを洗練させる可変しきい値を使用する。
論文 参考訳(メタデータ) (2024-11-15T20:46:58Z) - Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Algorithm Configuration for Structured Pfaffian Settings [24.457000214575245]
データ駆動型アルゴリズム設計は、アルゴリズムを特定のアプリケーションドメインに自動的に適応させ、より良いパフォーマンスを達成する。
パラメータ化データ駆動型アルゴリズム設計問題に対する学習保証を提供するための改良されたフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-06T15:58:20Z) - A Constructive Approach to Function Realization by Neural Stochastic
Differential Equations [8.04975023021212]
システム力学における構造的制約を導入し、そのようなシステムで実現可能な関数のクラスを特徴付ける。
これらのシステムは、ニューラル微分方程式(ニューラルSDE)、決定論的力学系、読み出しマップのカスケード相互接続として実装される。
論文 参考訳(メタデータ) (2023-07-01T03:44:46Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Efficient and Modular Implicit Differentiation [68.74748174316989]
最適化問題の暗黙的な微分のための統一的で効率的かつモジュール化されたアプローチを提案する。
一見単純な原理は、最近提案された多くの暗黙の微分法を復元し、新しいものを簡単に作成できることを示している。
論文 参考訳(メタデータ) (2021-05-31T17:45:58Z) - A mathematical model for automatic differentiation in machine learning [0.0]
簡単な関数のクラス、非滑らかな計算を提供し、それらが近似法にどのように適用されるかを示す。
また、アルゴリズムの微分によって生成された人工臨界点の問題も証明し、通常の手法がそれらの点を確率1で避けていることを示す。
論文 参考訳(メタデータ) (2020-06-03T07:33:29Z) - Automatic Differentiation in ROOT [62.997667081978825]
数学と計算機代数において、自動微分 (AD) は、コンピュータプログラムによって指定された関数の微分を評価するための一連の技術である。
本稿では、任意のC/C++関数の導関数を生成するために、ClingがサポートするROOTで利用可能なAD技術を提案する。
論文 参考訳(メタデータ) (2020-04-09T09:18:50Z) - Invariant Feature Coding using Tensor Product Representation [75.62232699377877]
我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
論文 参考訳(メタデータ) (2019-06-05T07:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。