論文の概要: Learning and Optimization of Blackbox Combinatorial Solvers in Neural
Networks
- arxiv url: http://arxiv.org/abs/2006.03941v1
- Date: Sat, 6 Jun 2020 18:58:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:05:09.421391
- Title: Learning and Optimization of Blackbox Combinatorial Solvers in Neural
Networks
- Title(参考訳): ニューラルネットワークにおけるブラックボックス組合せソルバの学習と最適化
- Authors: T.J. Wilder
- Abstract要約: この研究は、一次損失関数を最適化することで既存の技術の改善を試みる。
また,ブラックボックスソルバが使用するブラックボックスパラメータや,特定のソルバの関数などのブラックボックスパラメータを学習する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of blackbox solvers inside neural networks is a relatively new area
which aims to improve neural network performance by including proven, efficient
solvers for complex problems. Existing work has created methods for learning
networks with these solvers as components while treating them as a blackbox.
This work attempts to improve upon existing techniques by optimizing not only
over the primary loss function, but also over the performance of the solver
itself by using Time-cost Regularization. Additionally, we propose a method to
learn blackbox parameters such as which blackbox solver to use or the heuristic
function for a particular solver. We do this by introducing the idea of a
hyper-blackbox which is a blackbox around one or more internal blackboxes.
- Abstract(参考訳): ニューラルネットワーク内でのブラックボックスソルバの使用は、複雑な問題に対する証明された効率的な解決器を含めることで、ニューラルネットワークのパフォーマンスを改善することを目的とした比較的新しい領域である。
既存の研究は、ネットワークをブラックボックスとして扱いながら、これらのソルバをコンポーネントとして学習する方法を作成している。
本研究は, 一次損失関数だけでなく, 時間コスト正規化を用いて解法自体の性能を最適化することにより, 既存の技術の改善を試みる。
さらに,ブラックボックスソルバが使用するブラックボックスパラメータや,特定のソルバに対するヒューリスティック関数などのブラックボックスパラメータを学習する手法を提案する。
1つ以上の内部ブラックボックスを囲むブラックボックスであるハイパーブラックボックスの概念を導入することでこれを実現しています。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Reinforced In-Context Black-Box Optimization [64.25546325063272]
RIBBOは、オフラインデータからエンドツーエンドでBBOアルゴリズムを強化学習する手法である。
RIBBOは、複数の動作アルゴリズムとタスクによって生成される最適化履歴を学習するために、表現的なシーケンスモデルを使用している。
提案手法の中心となるのは,テキストレグレット・ツー・ゴートークンによる最適化履歴の増大である。
論文 参考訳(メタデータ) (2024-02-27T11:32:14Z) - PINN-BO: A Black-box Optimization Algorithm using Physics-Informed
Neural Networks [11.618811218101058]
ブラックボックス最適化は、ノイズの多い高価なブラックボックス関数において、グローバルな最適化を発見するための強力なアプローチである。
物理インフォームドニューラルネットワークを用いたブラックボックス最適化アルゴリズムであるPINN-BOを提案する。
既存の手法に比べて,本アルゴリズムはサンプリング効率が高いことを示す。
論文 参考訳(メタデータ) (2024-02-05T17:58:17Z) - Bridging Logic and Learning: A Neural-Symbolic Approach for Enhanced
Reasoning in Neural Models (ASPER) [0.13053649021965597]
本稿では,学習推論タスクにおけるニューラルモデルの性能向上を目的としたアプローチを提案する。
これを実現するために、Answer Set Programmingソルバとドメイン固有の専門知識を統合する。
モデルは、トレーニングとテストのためにたった12のパズルを使用して、スドゥークパズルの解法を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-12-18T19:06:00Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Neural-BO: A Black-box Optimization Algorithm using Deep Neural Networks [12.218039144209017]
ニューラルネットワークを用いてブラックボックス関数をモデル化する新しいブラックボックス最適化アルゴリズムを提案する。
我々のアルゴリズムは予測の不確実性を推定するためにベイズニューラルネットワークを必要としないので、計算に有利である。
論文 参考訳(メタデータ) (2023-03-03T02:53:56Z) - Ensemble learning for Physics Informed Neural Networks: a Gradient Boosting approach [10.250994619846416]
段階的強化(GB)と呼ばれる新しい訓練パラダイムを提案する。
与えられたPDEの解を1つのニューラルネットワークで直接学習する代わりに、我々のアルゴリズムは、より優れた結果を得るために、一連のニューラルネットワークを用いています。
この研究は、PINNでアンサンブル学習技術を採用するための扉も開ける。
論文 参考訳(メタデータ) (2023-02-25T19:11:44Z) - Experimental study of Neural ODE training with adaptive solver for
dynamical systems modeling [72.84259710412293]
アダプティブと呼ばれるいくつかのODEソルバは、目の前の問題の複雑さに応じて評価戦略を適用することができる。
本稿では,動的システムモデリングのためのブラックボックスとして適応型ソルバをシームレスに利用できない理由を示すための簡単な実験について述べる。
論文 参考訳(メタデータ) (2022-11-13T17:48:04Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Efficiently Learning Any One Hidden Layer ReLU Network From Queries [27.428198343906352]
ネットワークへのブラックボックスアクセスを提供するニューラルネットワークアクティベーションを任意の1つの隠蔽層で学習するアルゴリズムを初めて提供する。
最悪のネットワークであっても、完全時間で効率を保証できるのはこれが初めてです。
論文 参考訳(メタデータ) (2021-11-08T18:59:40Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。