論文の概要: JAXFit: Trust Region Method for Nonlinear Least-Squares Curve Fitting on
the GPU
- arxiv url: http://arxiv.org/abs/2208.12187v1
- Date: Thu, 25 Aug 2022 16:13:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:18:56.356174
- Title: JAXFit: Trust Region Method for Nonlinear Least-Squares Curve Fitting on
the GPU
- Title(参考訳): JAXFit:GPU上の非線形最小二乗曲線の信頼領域法
- Authors: Lucas R. Hofer, Milan Krstaji\'c, Robert P. Smith
- Abstract要約: JAX と呼ばれる新しい深層学習Pythonライブラリを用いて,非線形最小二乗曲線整合問題に対するGPU上の信頼領域法を実装した。
私たちのオープンソースパッケージであるJAXFitは、制約なしと制約なしのカーブ適合問題の両方で機能します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We implement a trust region method on the GPU for nonlinear least squares
curve fitting problems using a new deep learning Python library called JAX. Our
open source package, JAXFit, works for both unconstrained and constrained curve
fitting problems and allows the fit functions to be defined in Python alone --
without any specialized knowledge of either the GPU or CUDA programming. Since
JAXFit runs on the GPU, it is much faster than CPU based libraries and even
other GPU based libraries, despite being very easy to use. Additionally, due to
JAX's deep learning foundations, the Jacobian in JAXFit's trust region
algorithm is calculated with automatic differentiation, rather than than using
derivative approximations or requiring the user to define the fit function's
partial derivatives.
- Abstract(参考訳): JAXと呼ばれる新しいディープラーニングPythonライブラリを用いて,非線形最小二乗曲線整合問題に対するGPU上の信頼領域法を実装した。
私たちのオープンソースパッケージであるjaxfitは、制約のない曲線フィット問題の両方に対応し、gpuやcudaプログラミングの専門知識なしに、pythonだけでfit関数を定義することができます。
JAXFitはGPUで動作するため、非常に簡単に使えるにもかかわらず、CPUベースのライブラリや他のGPUベースのライブラリよりもはるかに高速である。
さらに、JAX の深層学習基盤により、JAXFit の信頼領域アルゴリズムのヤコビアンは、微分近似を用いることや、ユーザが適合関数の部分微分を定義することよりも、自動微分によって計算される。
関連論文リスト
- Benchmarking Predictive Coding Networks -- Made Simple [48.652114040426625]
まず,性能と簡易性を重視したPCXというライブラリを提案する。
私たちはPCXを使って、コミュニティが実験に使用する大規模なベンチマークを実装しています。
論文 参考訳(メタデータ) (2024-07-01T10:33:44Z) - DrJAX: Scalable and Differentiable MapReduce Primitives in JAX [9.676195490442367]
DrJAXは大規模分散および並列機械学習アルゴリズムをサポートするように設計されたライブラリである。
DrJAXはMapReduce計算のビルディングブロックをJAXのプリミティブとして組み込みます。
DrJAX計算はXLA HLOに直接変換することができ、幅広いMLトレーニングプラットフォームとの柔軟な統合を可能にする。
論文 参考訳(メタデータ) (2024-03-11T19:51:01Z) - BlackJAX: Composable Bayesian inference in JAX [8.834500692867671]
BlackJAXはサンプリングと変分推論アルゴリズムを実装するライブラリである。
Pythonで書かれており、JAXを使ってNumpPyのようなサンプルをコンパイルし、CPU、GPU、TPU上で変分メソッドを実行する。
論文 参考訳(メタデータ) (2024-02-16T16:21:02Z) - XLB: A differentiable massively parallel lattice Boltzmann library in Python [0.0]
JAX プラットフォームをベースとした Python ベースの差別化可能な LBM ライブラリである XLB ライブラリを紹介する。
XLBの差別化性とデータ構造は、広範囲にわたるJAXベースの機械学習エコシステムと互換性がある。
XLBは数十億のセルでのシミュレーション処理に成功し、毎秒ギガスケールの格子更新を実現している。
論文 参考訳(メタデータ) (2023-11-27T18:50:37Z) - JaxMARL: Multi-Agent RL Environments in JAX [107.7560737385902]
我々は、使いやすさとGPU有効性を組み合わせた最初のオープンソースコードベースであるJaxMARLを紹介します。
私たちの実験によると、JAXベースのトレーニングパイプラインの実行は、既存のアプローチよりも最大で12500倍高速です。
また、人気のあるStarCraft Multi-Agent Challengeのベクトル化、単純化されたバージョンであるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - JaxPruner: A concise library for sparsity research [46.153423603424]
JaxPrunerはスパースニューラルネットワーク研究のためのオープンソースライブラリである。
メモリとレイテンシのオーバーヘッドを最小限に抑えながら、一般的なプルーニングとスパーストレーニングアルゴリズムを実装している。
論文 参考訳(メタデータ) (2023-04-27T10:45:30Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - Going faster to see further: GPU-accelerated value iteration and
simulation for perishable inventory control using JAX [5.856836693166898]
我々はPythonライブラリJAXを使って、ハイレベルなAPIで基礎となるMarkov決定プロセスの反復とシミュレータを実装しています。
提案手法は,従来は実現不可能あるいは現実的と考えられていた設定に値反復の使用を拡張できる。
我々は、複数の候補ポリシーパラメータの並列評価を可能にするJAXのシミュレーション最適化を用いて、最適補充ポリシーの性能をポリシーと比較した。
論文 参考訳(メタデータ) (2023-03-19T14:20:44Z) - Data-Efficient Instance Segmentation with a Single GPU [88.31338435907304]
我々は2021年のVIPriors Instance Challengeで使用したデータ効率のセグメンテーション手法を紹介した。
私たちのソリューションは、強力なツールボックスであるmmdetectionをベースにした、Swin Transformerの修正版です。
本手法は,全競技者の2位である0.592のAP@0.50:0.95(medium)を達成した。
論文 参考訳(メタデータ) (2021-10-01T07:36:20Z) - Hybrid Models for Learning to Branch [81.93868699246214]
我々はCPUマシン上で効率的な分岐を行うための新しいハイブリッドアーキテクチャを提案する。
提案アーキテクチャは,GNNの表現力と分岐処理のための計算コストの低い多層パーセプトロン(MLP)を組み合わせる。
論文 参考訳(メタデータ) (2020-06-26T21:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。