論文の概要: Self-Scaled Broyden Family of Quasi-Newton Methods in JAX
- arxiv url: http://arxiv.org/abs/2603.10599v1
- Date: Wed, 11 Mar 2026 09:53:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.886781
- Title: Self-Scaled Broyden Family of Quasi-Newton Methods in JAX
- Title(参考訳): JAXにおける準ニュートン法の自己スケールブロイデン族
- Authors: Ivan Bioli, Mikel Mendibe Abarrategi,
- Abstract要約: 準ニュートン法による自己スケールブロイデンファミリーのJAX実装について述べる。
実装には、BFGS, DFP, Broydenとその自己スケール型(FGS, SSDFP, SSBroyden)と、強力なWolfe条件を満たすZoomラインサーチが含まれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a JAX implementation of the Self-Scaled Broyden family of quasi-Newton methods, fully compatible with JAX and building on the Optimistix~\cite{rader_optimistix_2024} optimisation library. The implementation includes BFGS, DFP, Broyden and their Self-Scaled variants(SSBFGS, SSDFP, SSBroyden), together with a Zoom line search satisfying the strong Wolfe conditions. This is a short technical note, not a research paper, as it does not claim any novel contribution; its purpose is to document the implementation and ease the adoption of these optimisers within the JAX community. The code is available at https://github.com/IvanBioli/ssbroyden_optimistix.git.
- Abstract(参考訳): 本稿では、JAXと完全に互換性があり、Optimistix~\cite{rader_optimistix_2024}最適化ライブラリ上に構築されている準ニュートンメソッドのSelf-Scaled BroydenファミリーのJAX実装について述べる。
実装には、BFGS, DFP, Broydenとその自己スケール版(SSBFGS, SSDFP, SSBroyden)と強力なWolfe条件を満たすZoomラインサーチが含まれる。
JAXコミュニティにおけるこれらのオプティマイザの実装の文書化と導入の容易化を目的としています。
コードはhttps://github.com/IvanBioli/ssbroyden_optimistix.gitで公開されている。
関連論文リスト
- MPX: Mixed Precision Training for JAX [56.49234478198188]
混合精度トレーニングは、ニューラルネットワークトレーニングの効率を高めるために必要なツールとして登場した。
本稿では,大規模ニューラルネットワークのトレーニングを簡略化し,高速化するJAX用混合精度トレーニングツールボックスMPXを提案する。
MPXはEquinoxやFraxといった一般的なツールボックスとシームレスに統合され、完全な精度パイプラインを混合精度バージョンに変換することができる。
論文 参考訳(メタデータ) (2025-07-04T05:47:04Z) - jinns: a JAX Library for Physics-Informed Neural Networks [0.7366405857677227]
jinnsは物理インフォームドニューラルネットワークのためのオープンソースのPythonライブラリである。
JAXエコシステムに根ざしたこのフレームワークは、リアルプロブレムを効率的にプロトタイピングするための多用途フレームワークを提供する。
論文 参考訳(メタデータ) (2024-12-18T18:21:41Z) - BlackJAX: Composable Bayesian inference in JAX [8.834500692867671]
BlackJAXはサンプリングと変分推論アルゴリズムを実装するライブラリである。
Pythonで書かれており、JAXを使ってNumpPyのようなサンプルをコンパイルし、CPU、GPU、TPU上で変分メソッドを実行する。
論文 参考訳(メタデータ) (2024-02-16T16:21:02Z) - JaxMARL: Multi-Agent RL Environments and Algorithms in JAX [105.343918678781]
我々は、GPU対応の効率と多くの一般的なMARL環境のサポートを組み合わせた、最初のオープンソースPythonベースのライブラリであるJaxMARLを紹介します。
我々の実験は、壁時計時間の観点から、JAXベースのトレーニングパイプラインが既存のアプローチの約14倍高速であることを示している。
また、人気の高いStarCraft Multi-Agent ChallengeのJAXベースの近似的な再実装であるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - JaxPruner: A concise library for sparsity research [46.153423603424]
JaxPrunerはスパースニューラルネットワーク研究のためのオープンソースライブラリである。
メモリとレイテンシのオーバーヘッドを最小限に抑えながら、一般的なプルーニングとスパーストレーニングアルゴリズムを実装している。
論文 参考訳(メタデータ) (2023-04-27T10:45:30Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。