論文の概要: Differentiable Spline Approximations
- arxiv url: http://arxiv.org/abs/2110.01532v1
- Date: Mon, 4 Oct 2021 16:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:49:12.186895
- Title: Differentiable Spline Approximations
- Title(参考訳): 微分スプライン近似
- Authors: Minsu Cho, Aditya Balu, Ameya Joshi, Anjana Deva Prasad, Biswajit
Khara, Soumik Sarkar, Baskar Ganapathysubramanian, Adarsh Krishnamurthy,
Chinmay Hegde
- Abstract要約: 微分プログラミングは機械学習のスコープを大幅に強化した。
標準的な微分可能なプログラミング手法(autodiffなど)は、通常、機械学習モデルが微分可能であることを要求する。
この再設計されたヤコビアンを予測モデルにおける微分可能な「層」の形で活用することで、多様なアプリケーションの性能が向上することを示す。
- 参考スコア(独自算出の注目度): 48.10988598845873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paradigm of differentiable programming has significantly enhanced the
scope of machine learning via the judicious use of gradient-based optimization.
However, standard differentiable programming methods (such as autodiff)
typically require that the machine learning models be differentiable, limiting
their applicability. Our goal in this paper is to use a new, principled
approach to extend gradient-based optimization to functions well modeled by
splines, which encompass a large family of piecewise polynomial models. We
derive the form of the (weak) Jacobian of such functions and show that it
exhibits a block-sparse structure that can be computed implicitly and
efficiently. Overall, we show that leveraging this redesigned Jacobian in the
form of a differentiable "layer" in predictive models leads to improved
performance in diverse applications such as image segmentation, 3D point cloud
reconstruction, and finite element analysis.
- Abstract(参考訳): 微分可能プログラミングのパラダイムは、勾配に基づく最適化の司法的利用を通じて機械学習のスコープを大幅に強化した。
しかしながら、標準的な微分可能プログラミング手法(autodiffなど)では、通常、機械学習モデルは微分可能で、その適用性を制限する必要がある。
本論文の目的は,スプラインによってモデル化された関数に勾配に基づく最適化を拡張するための,新しい原理的アプローチを使用することである。
そのような関数の(弱)ヤコビアンの形を導出し、暗黙的かつ効率的に計算できるブロックスパース構造を示すことを示す。
全体として、この再設計されたヤコビアンを予測モデルにおける微分可能な「層」の形で活用することで、画像分割、3次元点雲再構成、有限要素解析などの多様なアプリケーションの性能が向上することを示す。
関連論文リスト
- Ensemble architecture in polyp segmentation [0.0]
本研究では, 意味的セグメンテーションのアーキテクチャと, ポリープセグメンテーションに優れた評価モデルについて検討する。
最適な結果を得るために,異なるモデルの利点を利用する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-14T02:57:38Z) - Machine Learning Optimized Orthogonal Basis Piecewise Polynomial Approximation [0.9208007322096533]
Piecewise Polynomials (PP) は、軌道計画のようないくつかの工学分野において、点の集合の形で与えられる位置プロファイルを近似するために用いられる。
論文 参考訳(メタデータ) (2024-03-13T14:34:34Z) - A differentiable programming framework for spin models [0.0]
微分可能プログラミングを用いたスピンモデルシミュレーションのための新しいフレームワークを提案する。
我々は、Isingモデル、Pottsモデル、Cellular Pottsモデルという3つの異なるスピンシステムに焦点を当てる。
論文 参考訳(メタデータ) (2023-04-04T13:04:21Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Efficient and Modular Implicit Differentiation [68.74748174316989]
最適化問題の暗黙的な微分のための統一的で効率的かつモジュール化されたアプローチを提案する。
一見単純な原理は、最近提案された多くの暗黙の微分法を復元し、新しいものを簡単に作成できることを示している。
論文 参考訳(メタデータ) (2021-05-31T17:45:58Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Differentiable Segmentation of Sequences [2.1485350418225244]
我々は、連続的なワープ関数の学習の進歩の上に構築し、双方向パワー(TSP)分布に基づく新しいワープ関数のファミリーを提案する。
我々の定式化は特別な場合として分割一般化線型モデルの重要なクラスを含む。
我々は、PoissonレグレッションによるCOVID-19の拡散をモデル化し、変化点検出タスクに適用し、概念ドリフトによる分類モデルを学習する。
論文 参考訳(メタデータ) (2020-06-23T15:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。