論文の概要: Non-Blocking Batch A* (Technical Report)
- arxiv url: http://arxiv.org/abs/2208.07031v2
- Date: Tue, 16 Aug 2022 02:16:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 10:22:38.247043
- Title: Non-Blocking Batch A* (Technical Report)
- Title(参考訳): 非ブロックバッチa*(技術報告)
- Authors: Rishi Veerapaneni, Maxim Likhachev
- Abstract要約: 我々は,非NNによる拡張を許容しつつ,NNをバッチで遅延的に計算する有界部分最適化手法を提案する。
この微妙ながら重要な変更が,現在のブロッキング方式と比較して,拡張の大幅な削減につながることを示す。
- 参考スコア(独自算出の注目度): 17.803001657790748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Heuristic search has traditionally relied on hand-crafted or programmatically
derived heuristics. Neural networks (NNs) are newer powerful tools which can be
used to learn complex mappings from states to cost-to-go heuristics. However,
their slow single inference time is a large overhead that can substantially
slow down planning time in optimized heuristic search implementations. Several
recent works have described ways to take advantage of NN's batch computations
to decrease overhead in planning, while retaining bounds on (sub)optimality.
However, all these methods have used the NN heuristic in a "blocking" manner
while building up their batches, and have ignored possible fast-to-compute
admissible heuristics (e.g. existing classically derived heuristics) that are
usually available to use. We introduce Non-Blocking Batch A* (NBBA*), a bounded
suboptimal method which lazily computes the NN heuristic in batches while
allowing expansions informed by a non-NN heuristic. We show how this subtle but
important change can lead to substantial reductions in expansions compared to
the current blocking alternative, and see that the performance is related to
the information difference between the batch computed NN and fast non-NN
heuristic.
- Abstract(参考訳): ヒューリスティック探索は伝統的に手作りまたはプログラムによるヒューリスティックスに依存している。
ニューラルネットワーク(NN)は、状態からコスト対過去のヒューリスティックまで複雑なマッピングを学ぶために使用できる、より新しい強力なツールである。
しかし、それらのシングル推論時間は大きなオーバーヘッドであり、最適化されたヒューリスティック検索実装における計画時間を大幅に遅くすることができる。
いくつかの最近の研究で、NNのバッチ計算を利用して計画のオーバーヘッドを減らし、(サブ)最適性に制限を課す方法が説明されている。
しかしながら、これらの手法はすべて、バッチを構築しながらNNヒューリスティックを"ブロッキング"方式で使用しており、通常は使用可能な高速で計算可能なヒューリスティック(例えば、既存の古典的派生ヒューリスティック)を無視している。
非ブロックバッチA*(NBBA*)は,非NNヒューリスティックによる拡張を許容しつつ,バッチ内のNNヒューリスティックを遅延的に計算する有界部分最適化手法である。
この微妙ながら重要な変更が、現在のブロッキング方式と比較して拡張の大幅な削減につながることを示し、その性能が、バッチ計算されたNNと高速な非NNヒューリスティック間の情報差に関連していることを確認する。
関連論文リスト
- FSCNN: A Fast Sparse Convolution Neural Network Inference System [31.474696818171953]
畳み込みニューラルネットワーク(CNN)は目覚ましい成功を収めているが、通常は高い計算コストと多くの冗長な重みパラメータが伴う。
FLOPを小さくするためには、粗粒の粗さを導入して隠蔽構造全体を除去する構造刈りが一般的である。
圧縮されたCNNの微細な粒度を利用した効率的な畳み込みニューラルネットワーク推論システムを提案する。
論文 参考訳(メタデータ) (2022-12-17T06:44:58Z) - Exact Gradient Computation for Spiking Neural Networks Through Forward
Propagation [39.33537954568678]
従来のニューラルネットワークに代わるものとして、スパイキングニューラルネットワーク(SNN)が登場している。
本稿では,SNNの正確な勾配を計算できるEmphforward propagation (FP)と呼ばれる新しいトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-18T20:28:21Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Reachability Analysis of Neural Feedback Loops [34.94930611635459]
本研究は, NNコントローラ付き閉ループシステム) の前方到達可能なフィードバックループの推定に焦点をあてる。
最近の研究は、これらの到達可能な集合に境界を与えるが、計算的に抽出可能なアプローチは過度に保守的な境界をもたらす。
この研究は、NNコントローラを用いた閉ループシステムの到達可能性解析のための凸最適化問題を定式化することによってギャップを埋める。
論文 参考訳(メタデータ) (2021-08-09T16:11:57Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z) - Backpropagation Through Time For Networks With Long-Term Dependencies [0.0]
backpropagation through time(bptt)は、recurrent neural networks(rnn)内でチューニングされたパラメータを更新する技術である。
本稿では,個別ループと複数ループの相互作用に対して,それぞれ「離散フォワード感度方程式」とその変種を用いることを提案する。
このソリューションは正確であり、ネットワークのパラメータを次のステップごとに変更することができますが、Jacobianの計算が必要です。
論文 参考訳(メタデータ) (2021-03-26T15:55:54Z) - Efficient Reachability Analysis of Closed-Loop Systems with Neural
Network Controllers [39.27951763459939]
本研究は,NNコントローラを用いた前方到達可能な閉ループシステムの推定に焦点をあてる。
最近の研究は到達可能な集合の境界を提供するが、計算効率の高いアプローチは過度に保守的な境界を提供する。
この作業は、NNコントローラによる閉ループシステムの到達可能性解析のための凸最適化問題を定式化することでギャップを埋める。
論文 参考訳(メタデータ) (2021-01-05T22:30:39Z) - Community detection using fast low-cardinality semidefinite programming [94.4878715085334]
局所的な更新を一般化し、ライデン-k-カットから導かれる半定緩和を最大化する、新しい低カルチナリティアルゴリズムを提案する。
提案アルゴリズムはスケーラビリティが高く,最先端のアルゴリズムより優れ,実時間では性能が向上し,追加コストがほとんどない。
論文 参考訳(メタデータ) (2020-12-04T15:46:30Z) - Learning to Accelerate Heuristic Searching for Large-Scale Maximum
Weighted b-Matching Problems in Online Advertising [51.97494906131859]
バイパルタイトbマッチングはアルゴリズム設計の基本であり、経済市場や労働市場などに広く適用されている。
既存の正確で近似的なアルゴリズムは、通常そのような設定で失敗する。
我々は、以前の事例から学んだ知識を活用して、新しい問題インスタンスを解決するtextttNeuSearcherを提案する。
論文 参考訳(メタデータ) (2020-05-09T02:48:23Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。