論文の概要: Cooper: A Library for Constrained Optimization in Deep Learning
- arxiv url: http://arxiv.org/abs/2504.01212v1
- Date: Tue, 01 Apr 2025 21:52:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:18:28.640707
- Title: Cooper: A Library for Constrained Optimization in Deep Learning
- Title(参考訳): Cooper: ディープラーニングにおける制約付き最適化のためのライブラリ
- Authors: Jose Gallego-Posada, Juan Ramirez, Meraj Hashemizadeh, Simon Lacoste-Julien,
- Abstract要約: Cooperは、ディープラーニングモデルにおける制約付き最適化問題を解決するオープンソースのパッケージである。
CooperはLagrangianベースの一階更新スキームをいくつか実装している。
- 参考スコア(独自算出の注目度): 17.605062338283606
- License:
- Abstract: Cooper is an open-source package for solving constrained optimization problems involving deep learning models. Cooper implements several Lagrangian-based first-order update schemes, making it easy to combine constrained optimization algorithms with high-level features of PyTorch such as automatic differentiation, and specialized deep learning architectures and optimizers. Although Cooper is specifically designed for deep learning applications where gradients are estimated based on mini-batches, it is suitable for general non-convex continuous constrained optimization. Cooper's source code is available at https://github.com/cooper-org/cooper.
- Abstract(参考訳): Cooperはディープラーニングモデルに関わる制約付き最適化問題を解決するためのオープンソースパッケージである。
Cooperは、いくつかのラグランジアンベースの一階更新スキームを実装しており、制約付き最適化アルゴリズムと、PyTorchの高レベルの機能、例えば自動微分、専門的なディープラーニングアーキテクチャとオプティマイザを組み合わせやすくしている。
Cooperは、ミニバッチに基づいて勾配を推定するディープラーニングアプリケーションに特化して設計されているが、一般の非凸連続制約最適化に適している。
Cooperのソースコードはhttps://github.com/cooper-org/cooper.comで入手できる。
関連論文リスト
- Nonconvex Federated Learning on Compact Smooth Submanifolds With Heterogeneous Data [23.661713049508375]
本稿では,クライアントの設定においてサブマニフォールド上で学習するアルゴリズムを提案する。
提案アルゴリズムは,新しい解析手法を用いて一階最適解の近傍に部分収束することを示す。
論文 参考訳(メタデータ) (2024-06-12T17:53:28Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Adaptive Federated Minimax Optimization with Lower Complexities [82.51223883622552]
本稿では,これらのミニマックス問題の解法として,適応最小最適化アルゴリズム(AdaFGDA)を提案する。
運動量に基づく還元および局所SGD技術を構築し、様々な適応学習率を柔軟に組み込む。
論文 参考訳(メタデータ) (2022-11-14T12:32:18Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - NCVX: A General-Purpose Optimization Solver for Constrained Machine and
Deep Learning [2.1485350418225244]
NCVXは制約付きマシン/ディープ学習問題のための新しいソフトウェアパッケージである。
PyTorchから自動微分、GPUアクセラレーション、テンソル変数を継承する。
論文 参考訳(メタデータ) (2022-10-03T14:41:26Z) - On a class of geodesically convex optimization problems solved via
Euclidean MM methods [50.428784381385164]
ユークリッド凸化関数の違いは、統計学と機械学習の異なるタイプの問題の違いとして記述できることを示す。
最終的に、より広い範囲、より広い範囲の作業を支援するのです。
論文 参考訳(メタデータ) (2022-06-22T23:57:40Z) - Geometric Optimisation on Manifolds with Applications to Deep Learning [6.85316573653194]
これらの強力なツールをすべて使用して、非専門家を支援するために、Pythonライブラリを設計、実装しています。
このライブラリに実装されたアルゴリズムは、ユーザビリティとGPU効率を念頭に設計されている。
論文 参考訳(メタデータ) (2022-03-09T15:20:07Z) - Learning for Robust Combinatorial Optimization: Algorithm and
Application [26.990988571097827]
最適化学習(L2O)は、ニューラルネットワークの強い予測力を活用することにより、最適化問題を解決するための有望なアプローチとして登場した。
本稿では,不確実な状況下で頑健な解を迅速に出力するLRCOという新しい学習ベース最適化を提案する。
その結果、LRCOは、非常に少ない複雑さで、最悪のケースコストとランタイムを大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-12-20T07:58:50Z) - A Bi-Level Framework for Learning to Solve Combinatorial Optimization on
Graphs [91.07247251502564]
本稿では,2つの世界の長所を結合するハイブリッドな手法を提案する。この手法では,グラフを最適化する上層学習手法とバイレベルフレームワークを開発する。
このような二段階のアプローチは、元のハードCOでの学習を単純化し、モデルキャパシティの需要を効果的に軽減することができる。
論文 参考訳(メタデータ) (2021-06-09T09:18:18Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Multi-consensus Decentralized Accelerated Gradient Descent [31.76773130271547]
分散凸最適化問題は、大規模機械学習、センサーネットワーク、制御理論に幅広い応用がある。
本稿では,最適な計算複雑性とほぼ最適な通信複雑性を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-02T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。