論文の概要: Neuromorphic Bayesian Optimization in Lava
- arxiv url: http://arxiv.org/abs/2305.11060v1
- Date: Thu, 18 May 2023 15:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 14:20:23.756857
- Title: Neuromorphic Bayesian Optimization in Lava
- Title(参考訳): 溶岩中のニューロモルフィックベイズ最適化
- Authors: Shay Snyder (1), Sumedh R. Risbud (2), and Maryam Parsa (1) ((1)
George Mason University, (2) Intel Labs)
- Abstract要約: オープンソースのLava Software Frameworkへのコントリビューションとして、Lava Bayesian Optimization (LavaBO)を紹介します。
LavaBOは、異種できめ細かな並列なインメモリニューロモルフィックコンピューティングアーキテクチャと互換性のあるBOシステムを開発するための最初のステップである。
バックプロパゲーションや進化学習を通じて、最先端のスパイクニューラルネットワークを訓練するといった複数の問題に対して、LavaBOシステムのアルゴリズム性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ever-increasing demands of computationally expensive and high-dimensional
problems require novel optimization methods to find near-optimal solutions in a
reasonable amount of time. Bayesian Optimization (BO) stands as one of the best
methodologies for learning the underlying relationships within multi-variate
problems. This allows users to optimize time consuming and computationally
expensive black-box functions in feasible time frames. Existing BO
implementations use traditional von-Neumann architectures, in which data and
memory are separate. In this work, we introduce Lava Bayesian Optimization
(LavaBO) as a contribution to the open-source Lava Software Framework. LavaBO
is the first step towards developing a BO system compatible with heterogeneous,
fine-grained parallel, in-memory neuromorphic computing architectures (e.g.,
Intel's Loihi platform). We evaluate the algorithmic performance of the LavaBO
system on multiple problems such as training state-of-the-art spiking neural
network through back-propagation and evolutionary learning. Compared to
traditional algorithms (such as grid and random search), we highlight the
ability of LavaBO to explore the parameter search space with fewer expensive
function evaluations, while discovering the optimal solutions.
- Abstract(参考訳): 計算的に高価で高次元的な問題の増大は、最適に近い解を妥当な時間で見つけるための新しい最適化手法を必要とする。
ベイズ最適化(BO)は、多変量問題における基礎となる関係を学習するための最良の方法論の1つである。
これにより、ユーザーは時間消費と計算コストのかかるブラックボックス機能を実現可能な時間枠で最適化することができる。
既存のbo実装では、データとメモリが分離された従来のvon-neumannアーキテクチャを使用している。
本稿では,オープンソースのlavasソフトウェアフレームワークへの貢献として,lavas bayesian optimization (lavabo)を紹介する。
LavaBOは、異種で細粒度の並列なインメモリニューロモルフィックコンピューティングアーキテクチャ(例えばIntelのLoihiプラットフォーム)と互換性のあるBOシステムを開発するための最初のステップである。
本研究では,バックプロパゲーションと進化学習を通じて,最先端スパイクニューラルネットワークを訓練するなど,複数の問題に対するlavaboシステムのアルゴリズム性能を評価する。
従来のアルゴリズム(グリッド探索やランダム探索など)と比較して,lavaboのパラメータ探索空間を,より少ないコストで探索し,最適な解を探索する能力に注目する。
関連論文リスト
- EARL-BO: Reinforcement Learning for Multi-Step Lookahead, High-Dimensional Bayesian Optimization [1.8655559150764562]
本稿では,高次元ブラックボックス最適化問題におけるマルチステップルックアヘッドBOのための新しい強化学習(RL)フレームワークを提案する。
まず、RLエージェントに知識の状態を表現し、初期訓練を加速するために、政治以外の学習を取り入れたアテンション・ディープセット・エンコーダを紹介する。
次に、エンドツーエンド(エンコーダRL)の政治学習に基づくマルチタスクの微調整手順を評価する。
論文 参考訳(メタデータ) (2024-10-31T19:33:21Z) - SCORE: A 1D Reparameterization Technique to Break Bayesian Optimization's Curse of Dimensionality [0.0]
この呪文を破り、高次元景観におけるBOの線形時間複雑性を維持するための1次元再パラメータ化手法が提案されている。
SCOREと呼ばれるこの高速でスケーラブルなアプローチは、大域的に最小のニードル・ア・ヘイスタック最適化関数を見つけることができる。
論文 参考訳(メタデータ) (2024-06-18T14:28:29Z) - Reinforced In-Context Black-Box Optimization [64.25546325063272]
RIBBOは、オフラインデータからエンドツーエンドでBBOアルゴリズムを強化学習する手法である。
RIBBOは、複数の動作アルゴリズムとタスクによって生成される最適化履歴を学習するために、表現的なシーケンスモデルを使用している。
提案手法の中心となるのは,テキストレグレット・ツー・ゴートークンによる最適化履歴の増大である。
論文 参考訳(メタデータ) (2024-02-27T11:32:14Z) - Decreasing the Computing Time of Bayesian Optimization using
Generalizable Memory Pruning [56.334116591082896]
本稿では,任意のサロゲートモデルと取得関数で使用可能なメモリプルーニングとバウンダリ最適化のラッパーを示す。
BOを高次元または大規模データセット上で実行することは、この時間の複雑さのために難解になる。
すべてのモデル実装はMIT Supercloudの最先端コンピューティングハードウェア上で実行される。
論文 参考訳(メタデータ) (2023-09-08T14:05:56Z) - Non-Convex Bilevel Optimization with Time-Varying Objective Functions [57.299128109226025]
本稿では,時間変化の可能なオンライン二段階最適化を提案し,エージェントがオンラインデータを用いて決定を継続的に更新する。
既存のアルゴリズムと比較して、SOBOWは計算効率が良く、以前の関数を知る必要がない。
軽度条件下では,SOBOWはサブリニアな局所的後悔を達成できることを示す。
論文 参考訳(メタデータ) (2023-08-07T06:27:57Z) - Large-Batch, Iteration-Efficient Neural Bayesian Design Optimization [37.339567743948955]
本稿では,BOの限界に対処するための新しいベイズ最適化フレームワークを提案する。
我々の重要な貢献は、高度にスケーラブルでサンプルベースの取得機能であり、非支配的な目的のソートを実行する。
我々は,ベイズ型ニューラルネットワークサロゲートと組み合わせることで,最小限の反復数でデータ集約環境に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-01T19:10:57Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - ES-Based Jacobian Enables Faster Bilevel Optimization [53.675623215542515]
バイレベル最適化(BO)は多くの現代の機械学習問題を解決する強力なツールとして生まれてきた。
既存の勾配法では、ヤコビアンあるいはヘッセンベクトル計算による二階微分近似が必要となる。
本稿では,進化戦略(ES)に基づく新しいBOアルゴリズムを提案し,BOの過勾配における応答ヤコビ行列を近似する。
論文 参考訳(メタデータ) (2021-10-13T19:36:50Z) - Computationally Efficient High-Dimensional Bayesian Optimization via
Variable Selection [0.5439020425818999]
本稿では,変数選択を利用した計算効率の高い高次元BO法を提案する。
提案手法では,選択変数を含む空間を軸整列した部分空間を自動的に学習することができる。
我々は,いくつかの合成および実問題に対する本手法の有効性を実証的に示す。
論文 参考訳(メタデータ) (2021-09-20T01:55:43Z) - Scalable Combinatorial Bayesian Optimization with Tractable Statistical
models [44.25245545568633]
緩和空間上のブラックボックス関数(集合、列、木、グラフなど)を最適化する問題について検討する。
サブモジュール緩和の最近の進歩に基づき,BOCSモデルにおけるAFO問題のスケーラビリティと精度向上を目標として,Parametrized Submodular (PSR) のアプローチを検討する。
多様なベンチマーク問題に対する実験では、BOCSモデルに対するPSRによる大幅な改善が示されている。
論文 参考訳(メタデータ) (2020-08-18T22:56:46Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。