論文の概要: Physarum Powered Differentiable Linear Programming Layers and
Applications
- arxiv url: http://arxiv.org/abs/2004.14539v2
- Date: Mon, 10 May 2021 17:21:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 02:55:04.639515
- Title: Physarum Powered Differentiable Linear Programming Layers and
Applications
- Title(参考訳): ファイザラムパワーの微分線形プログラミング層とその応用
- Authors: Zihang Meng, Sathya N. Ravi, Vikas Singh
- Abstract要約: 一般線形プログラミング問題に対する効率的かつ微分可能な解法を提案する。
本稿では,ビデオセグメンテーションタスクとメタラーニングにおける問題解決手法について述べる。
- 参考スコア(独自算出の注目度): 48.77235931652611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consider a learning algorithm, which involves an internal call to an
optimization routine such as a generalized eigenvalue problem, a cone
programming problem or even sorting. Integrating such a method as a layer(s)
within a trainable deep neural network (DNN) in an efficient and numerically
stable way is not straightforward -- for instance, only recently, strategies
have emerged for eigendecomposition and differentiable sorting. We propose an
efficient and differentiable solver for general linear programming problems
which can be used in a plug and play manner within DNNs as a layer. Our
development is inspired by a fascinating but not widely used link between
dynamics of slime mold (physarum) and optimization schemes such as steepest
descent. We describe our development and show the use of our solver in a video
segmentation task and meta-learning for few-shot learning. We review the
existing results and provide a technical analysis describing its applicability
for our use cases. Our solver performs comparably with a customized projected
gradient descent method on the first task and outperforms the differentiable
CVXPY-SCS solver on the second task. Experiments show that our solver converges
quickly without the need for a feasible initial point. Our proposal is easy to
implement and can easily serve as layers whenever a learning procedure needs a
fast approximate solution to a LP, within a larger network.
- Abstract(参考訳): 一般化固有値問題やコーンプログラミング問題,さらにはソートといった最適化ルーチンを内部的に呼び出す学習アルゴリズムを考える。
トレーニング可能なディープニューラルネットワーク(DNN)内の層のようなメソッドを、効率的で数値的に安定した方法で統合することは、簡単ではない。
そこで本研究では,DNN内のプラグ・プレイ方式をレイヤとして使用可能な汎用線形プログラミング問題に対して,効率的かつ微分可能な解法を提案する。
当社の開発は,スライム型 (physarum) の動力学と急降下などの最適化スキームとの相関性に着想を得たが,広くは使われていない。
本稿では,ビデオセグメンテーションタスクとメタラーニングにおける問題解決者の活用について述べる。
既存の結果をレビューし,そのユースケースへの適用性を説明する技術的分析を行った。
提案手法は,第1のタスクで最適化された勾配降下法と互換性があり,第2のタスクで微分可能なCVXPY-SCSソルバよりも優れる。
実験は、我々の解法が実現可能な初期点を必要とせずに迅速に収束することを示す。
提案手法は実装が容易で,学習手順がLPに対して高速な近似解を必要とする場合,より大きなネットワーク内でも容易にレイヤとして機能する。
関連論文リスト
- Optimization by Parallel Quasi-Quantum Annealing with Gradient-Based Sampling [0.0]
本研究では、連続緩和による勾配に基づく更新と準量子アナリング(QQA)を組み合わせた別のアプローチを提案する。
数値実験により,本手法はiSCOと学習型解法に匹敵する性能を有する汎用解法であることが示された。
論文 参考訳(メタデータ) (2024-09-02T12:55:27Z) - Training Artificial Neural Networks by Coordinate Search Algorithm [0.20971479389679332]
本稿では、ニューラルネットワークのトレーニングのための勾配自由座標探索(CS)アルゴリズムの効率的なバージョンを提案する。
提案アルゴリズムは、微分不可能なアクティベーション関数で使用することができ、多目的/マルチロス問題に適合する。
ANNの重みに対する最適値を求めることは、大規模な最適化問題である。
論文 参考訳(メタデータ) (2024-02-20T01:47:25Z) - Multi-Objective Optimization for Sparse Deep Multi-Task Learning [0.0]
重み付きチェビシェフスキャラライゼーションを用いたディープニューラルネットワーク(DNN)のトレーニングのための多目的最適化アルゴリズムを提案する。
本研究の目的は,DNNモデルの持続可能性問題,特にDeep Multi-Taskモデルに焦点をあてることである。
論文 参考訳(メタデータ) (2023-08-23T16:42:27Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - BOME! Bilevel Optimization Made Easy: A Simple First-Order Approach [46.457298683984924]
バイレベル最適化(BO)は、さまざまな機械学習問題を解決するのに有用である。
従来の手法では、暗黙の微分を伴う低レベル最適化プロセスを通じて差別化する必要がある。
一階BOは一階情報にのみ依存し、暗黙の微分を必要としない。
論文 参考訳(メタデータ) (2022-09-19T01:51:12Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。