論文の概要: Fast semidefinite programming with feedforward neural networks
- arxiv url: http://arxiv.org/abs/2011.05785v2
- Date: Thu, 12 Nov 2020 10:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 01:00:06.893385
- Title: Fast semidefinite programming with feedforward neural networks
- Title(参考訳): feedforwardニューラルネットワークを用いた高速半定義プログラミング
- Authors: Tam\'as Kriv\'achy, Yu Cai, Joseph Bowles, Daniel Cavalcanti and
Nicolas Brunner
- Abstract要約: 本稿では,ニューラルネットワークを用いた実現可能性半定プログラムを提案する。
半確定プログラムを一度でも正確に解くことなく、ネットワークをトレーニングする。
トレーニングされたニューラルネットワークは、従来の解法と比較して、桁違いにスピードが向上することを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semidefinite programming is an important optimization task, often used in
time-sensitive applications. Though they are solvable in polynomial time, in
practice they can be too slow to be used in online, i.e. real-time
applications. Here we propose to solve feasibility semidefinite programs using
artificial neural networks. Given the optimization constraints as an input, a
neural network outputs values for the optimization parameters such that the
constraints are satisfied, both for the primal and the dual formulations of the
task. We train the network without having to exactly solve the semidefinite
program even once, thus avoiding the possibly time-consuming task of having to
generate many training samples with conventional solvers. The neural network
method is only inconclusive if both the primal and dual models fail to provide
feasible solutions. Otherwise we always obtain a certificate, which guarantees
false positives to be excluded. We examine the performance of the method on a
hierarchy of quantum information tasks, the Navascu\'es-Pironio-Ac\'in
hierarchy applied to the Bell scenario. We demonstrate that the trained neural
network gives decent accuracy, while showing orders of magnitude increase in
speed compared to a traditional solver.
- Abstract(参考訳): 半定義プログラミングは重要な最適化タスクであり、しばしば時間に敏感なアプリケーションで使用される。
これらは多項式時間で解けるが、実際にはオンライン、すなわちリアルタイムアプリケーションで使うには遅すぎる可能性がある。
本稿では,ニューラルネットワークを用いた実現可能性半定プログラムを提案する。
入力として最適化制約が与えられると、ニューラルネットワークは、タスクのプリミティブと2つの定式化の両方において、制約が満たされる最適化パラメータの値を出力する。
半定値プログラムを1回でも正確に解くことなくネットワークをトレーニングし、従来の解法で多くのトレーニングサンプルを生成するという、潜在的に時間がかかる作業を回避する。
ニューラルネットワークの手法は、原始モデルと双対モデルの両方が実現不可能なソリューションを提供できなかった場合にのみ決定できない。
そうでなければ、常に証明書を取得し、偽陽性を除外することを保証します。
量子情報課題の階層構造であるnavascu\'es-pironio-ac\'in階層における手法の性能をベルシナリオに適用した。
学習したニューラルネットワークは,従来の解法に比べて1桁の速度向上を示す一方で,精度も良好であることを示す。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Training Multi-layer Neural Networks on Ising Machine [41.95720316032297]
本稿では,量子化ニューラルネットワーク(QNN)を学習するためのIsing学習アルゴリズムを提案する。
私たちが知る限りでは、Isingマシン上で多層フィードフォワードネットワークをトレーニングする最初のアルゴリズムである。
論文 参考訳(メタデータ) (2023-11-06T04:09:15Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Optimal Stopping via Randomized Neural Networks [6.677219861416146]
本稿では、標準基底関数やディープニューラルネットワークの代わりにランダム化されたニューラルネットワークを使用することの利点について述べる。
我々のアプローチは、既存のアプローチがますます非現実的になるような高次元問題に適用できる。
いずれにせよ、我々のアルゴリズムは、最先端や他の関連する機械学習アプローチよりも時間的に優れている。
論文 参考訳(メタデータ) (2021-04-28T09:47:21Z) - A Projection Algorithm for the Unitary Weights [0.0]
ユニタリニューラルネットワークは、爆発と消滅のアクティベーション/勾配問題を解決するための代替手段として有望である。
重量行列に一元的制約を加えるため、しばしば長い訓練時間を必要とする。
ここでは, 事前学習された非単位級数からの近似ユニタリ重みの計算に, リー代数を用いたバックプロパゲーション手法を用いた新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-19T17:33:17Z) - Neural Spectrahedra and Semidefinite Lifts: Global Convex Optimization
of Polynomial Activation Neural Networks in Fully Polynomial-Time [31.94590517036704]
2次活性化を持つ2層数値ネットワークの完全凸最適化定式化を考案する。
本研究では,全入力データの複雑度とサンプルサイズが半定常的なニューラル・グローバル最適化であることを示した。
提案手法は, 標準バックプロパゲーション法に比べ, テスト精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-01-07T08:43:01Z) - ODEN: A Framework to Solve Ordinary Differential Equations using
Artificial Neural Networks [0.0]
我々は、ニューラルネットワークの性能を評価するために、正確な解の知識を必要としない特定の損失関数を証明した。
ニューラルネットワークは、トレーニング領域内での継続的ソリューションの近似に熟練していることが示されている。
ユーザフレンドリで適応可能なオープンソースコード(ODE$mathcalN$)がGitHubで提供されている。
論文 参考訳(メタデータ) (2020-05-28T15:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。