論文の概要: skscope: Fast Sparsity-Constrained Optimization in Python
- arxiv url: http://arxiv.org/abs/2403.18540v3
- Date: Fri, 11 Oct 2024 04:42:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-14 13:29:08.878187
- Title: skscope: Fast Sparsity-Constrained Optimization in Python
- Title(参考訳): skscope: Pythonの高速なスパシティ制約付き最適化
- Authors: Zezhi Wang, Jin Zhu, Peng Chen, Huiyang Peng, Xiaoke Zhang, Anran Wang, Junxian Zhu, Xueqin Wang,
- Abstract要約: 本稿では,空間制約付き最適化(SCO)問題を解くためのライブラリ・スコープを提案する。
スコープの利便性は、論文の2つの例を通して示される。
数値実験により、スコスコープで利用可能な解法は最大80倍のスピードアップを達成できることが明らかになった。
- 参考スコア(独自算出の注目度): 6.072504449459628
- License:
- Abstract: Applying iterative solvers on sparsity-constrained optimization (SCO) requires tedious mathematical deduction and careful programming/debugging that hinders these solvers' broad impact. In the paper, the library skscope is introduced to overcome such an obstacle. With skscope, users can solve the SCO by just programming the objective function. The convenience of skscope is demonstrated through two examples in the paper, where sparse linear regression and trend filtering are addressed with just four lines of code. More importantly, skscope's efficient implementation allows state-of-the-art solvers to quickly attain the sparse solution regardless of the high dimensionality of parameter space. Numerical experiments reveal the available solvers in skscope can achieve up to 80x speedup on the competing relaxation solutions obtained via the benchmarked convex solver. skscope is published on the Python Package Index (PyPI) and Conda, and its source code is available at: https://github.com/abess-team/skscope.
- Abstract(参考訳): 空間的制約のある最適化(SCO)に反復的な解法を適用するには、面倒な数学的推論と、これらの解法の影響を妨げている注意深いプログラミング/デバッグが必要である。
本稿では,このような障害を克服するために,ライブラリ・スコープを導入している。
skscopeを使えば、ユーザーは目的関数をプログラムするだけでSCOを解くことができる。
本論文の2つの例では, わずか4行のコードで, 疎線形回帰とトレンドフィルタリングに対処して, スコープの利便性を実証する。
さらに重要なことは、skscopeの効率的な実装により、パラメータ空間の高次元性に関わらず、最先端の解法がスパース解を迅速に達成することができることである。
数値実験により、ベンチマークされた凸解法により得られる競合緩和解の最大80倍の高速化が達成できることが示された。
skscopeはPython Package Index(PyPI)とCondaで公開されており、ソースコードはhttps://github.com/abess-team/skscope.comで公開されている。
関連論文リスト
- A new approach for fine-tuning sentence transformers for intent classification and out-of-scope detection tasks [6.013042193107048]
仮想アシスタントシステムでは,システムの範囲外にあるユーザクエリを拒否あるいはリダイレクトすることが重要である。
スコープ外拒否(OOS)の最も正確なアプローチの1つは、スコープ内クエリにおける意図分類のタスクと組み合わせることである。
本研究は,自己エンコーダを用いて学習した顕微鏡内埋め込み型再構成損失を用いて,クロスエントロピー損失を正規化することを提案する。
論文 参考訳(メタデータ) (2024-10-17T15:15:12Z) - Sketch 'n Solve: An Efficient Python Package for Large-Scale Least Squares Using Randomized Numerical Linear Algebra [0.0]
我々は、効率的なランダム化数値線形代数手法を実装したオープンソースのPythonパッケージであるSketch 'n Solveを提案する。
本研究では, 従来のLSQRよりも最大50倍の高速化を実現し, 精度も高いことを示す。
このパッケージは、機械学習の最適化、信号処理、科学計算の応用に特に有望であることを示している。
論文 参考訳(メタデータ) (2024-09-22T04:29:51Z) - A Fresh Take on Stale Embeddings: Improving Dense Retriever Training with Corrector Networks [81.2624272756733]
密集検索では、ディープエンコーダは入力とターゲットの両方に埋め込みを提供する。
我々は、古いキャッシュされたターゲット埋め込みを調整できる小さなパラメトリック補正ネットワークを訓練する。
私たちのアプローチは、トレーニング中にターゲット埋め込み更新が行われなくても、最先端の結果と一致します。
論文 参考訳(メタデータ) (2024-09-03T13:29:13Z) - Sparsity-Constraint Optimization via Splicing Iteration [1.3622424109977902]
我々は sPlicing itEration (SCOPE) を用いたスペーサリティ制約最適化アルゴリズムを開発した。
SCOPEはパラメータをチューニングせずに効率的に収束する。
SCOPEを用いて2次最適化を解き、スパース分類器を学習し、バイナリ変数のスパースマルコフネットワークを復元する。
C++実装に基づいたオープンソースのPythonパッケージskscopeがGitHubで公開されている。
論文 参考訳(メタデータ) (2024-06-17T18:34:51Z) - Multimodal Learned Sparse Retrieval with Probabilistic Expansion Control [66.78146440275093]
学習検索(LSR)は、クエリとドキュメントを疎語彙ベクトルにエンコードするニューラルネットワークのファミリーである。
テキスト画像検索に焦点をあて,マルチモーダル領域へのLSRの適用について検討する。
LexLIPやSTAIRのような現在のアプローチでは、大規模なデータセットで複雑なマルチステップのトレーニングが必要です。
提案手法は, 密度ベクトルを凍結密度モデルからスパース語彙ベクトルへ効率的に変換する。
論文 参考訳(メタデータ) (2024-02-27T14:21:56Z) - Learning in Inverse Optimization: Incenter Cost, Augmented Suboptimality
Loss, and Algorithms [4.0295993947651025]
我々は、最近Besbesらによって提案された「内心」の概念を、周辺に類似した新しい概念として紹介する。
本稿では,不整合データ問題に対する内心的概念の緩和であるASL (Augmented Suboptimality Loss) という新たな損失関数を提案する。
このアルゴリズムは、近似的な下位段階の評価とミラー降下更新ステップを組み合わせることで、高濃度の離散可能な集合を持つIO問題に対して、確実に効率的である。
論文 参考訳(メタデータ) (2023-05-12T18:58:08Z) - M-L2O: Towards Generalizable Learning-to-Optimize by Test-Time Fast
Self-Adaptation [145.7321032755538]
L2O(Learning to Optimize)は、複雑なタスクの最適化手順を著しく加速させるため、注目を集めている。
本稿では, アウト・オブ・ディストリビューションタスクへの高速なテスト時間自己適応を実現するL2Oをメタトレーニングすることで, このオープンな課題に対する潜在的な解決策を検討する。
論文 参考訳(メタデータ) (2023-02-28T19:23:20Z) - Unrolled Compressed Blind-Deconvolution [77.88847247301682]
sparse multi channel blind deconvolution (S-MBD) はレーダー/ソナー/超音波イメージングなどの多くの工学的応用で頻繁に発生する。
そこで本研究では,受信した全信号に対して,はるかに少ない測定値からブラインドリカバリを可能にする圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-09-28T15:16:58Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - Picasso: A Sparse Learning Library for High Dimensional Data Analysis in
R and Python [77.33905890197269]
本稿では,様々なスパース学習問題に対して,経路座標を統一的に最適化する新しいライブラリについて述べる。
ライブラリはR++でコード化されており、ユーザフレンドリーなスパース実験を行っている。
論文 参考訳(メタデータ) (2020-06-27T02:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。