論文の概要: DeepEverest: Accelerating Declarative Top-K Queries for Deep Neural
Network Interpretation
- arxiv url: http://arxiv.org/abs/2104.02234v8
- Date: Sun, 2 Apr 2023 07:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 02:38:37.563406
- Title: DeepEverest: Accelerating Declarative Top-K Queries for Deep Neural
Network Interpretation
- Title(参考訳): DeepEverest: ディープニューラルネットワーク解釈のための宣言的トップKクエリの高速化
- Authors: Dong He, Maureen Daum, Walter Cai, Magdalena Balazinska
- Abstract要約: DeepEverestは、ディープニューラルネットワーク上でサンプルクエリによる解釈の効率的な実行のためのシステムである。
DeepEverestは、完全な実体化の20%未満のストレージを使用して、個々のクエリを最大63倍高速化する。
- 参考スコア(独自算出の注目度): 8.778427616579165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We design, implement, and evaluate DeepEverest, a system for the efficient
execution of interpretation by example queries over the activation values of a
deep neural network. DeepEverest consists of an efficient indexing technique
and a query execution algorithm with various optimizations. We prove that the
proposed query execution algorithm is instance optimal. Experiments with our
prototype show that DeepEverest, using less than 20% of the storage of full
materialization, significantly accelerates individual queries by up to 63x and
consistently outperforms other methods on multi-query workloads that simulate
DNN interpretation processes.
- Abstract(参考訳): 我々は、ディープニューラルネットワークの活性化値に対する例クエリによる解釈の効率的な実行システムであるDeepEverestを設計、実装、評価する。
deepeverestは効率的なインデックス技術と様々な最適化を伴うクエリ実行アルゴリズムで構成されている。
提案するクエリ実行アルゴリズムがインスタンス最適であることを証明する。
プロトタイプを用いた実験では,完全な具体化のストレージの20%未満のdeepeverestは,個々のクエリを最大63倍高速化し,dnn解釈プロセスをシミュレートするマルチクエリワークロードの他のメソッドを一貫して上回っています。
関連論文リスト
- MFABA: A More Faithful and Accelerated Boundary-based Attribution Method
for Deep Neural Networks [69.28125286491502]
我々は,公理に固執する帰属アルゴリズムであるMFABAを紹介する。
結果は、最先端の属性アルゴリズムよりも101.5142倍高速に達成することで、その優位性を証明している。
論文 参考訳(メタデータ) (2023-12-21T07:48:15Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Efficient Neural Network Analysis with Sum-of-Infeasibilities [64.31536828511021]
凸最適化における総和係数法に着想を得て,広範な分岐関数を持つネットワーク上での検証クエリを解析するための新しい手法を提案する。
標準ケース分析に基づく完全探索手順の拡張は、各検索状態で実行される凸手順をDeepSoIに置き換えることによって達成できる。
論文 参考訳(メタデータ) (2022-03-19T15:05:09Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - SoftNeuro: Fast Deep Inference using Multi-platform Optimization [0.18472148461613155]
SoftNeuroは、効率的なパフォーマンスチューニングを備えた、新しい高性能な推論フレームワークである。
本フレームワークは,各レイヤの各種ルーチンをプロファイリングし,最速経路を選択することにより,推論性能を最大化する。
実験の結果,提案するフレームワークは高速な推論と効率的なチューニングを実現することがわかった。
論文 参考訳(メタデータ) (2021-10-12T14:31:53Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Iterative Surrogate Model Optimization (ISMO): An active learning
algorithm for PDE constrained optimization with deep neural networks [14.380314061763508]
反復代理モデル最適化(ISMO)と呼ばれる新しい能動学習アルゴリズムを提案する。
このアルゴリズムはディープニューラルネットワークに基づいており、その重要な特徴は、ディープニューラルネットワークと基礎となる標準最適化アルゴリズムの間のフィードバックループを通じて、トレーニングデータの反復的な選択である。
論文 参考訳(メタデータ) (2020-08-13T07:31:07Z) - Finding the Optimal Network Depth in Classification Tasks [10.248235276871258]
複数の分類器ヘッドを用いた軽量ニューラルネットワークの高速エンドツーエンド学習法を開発した。
モデルが各ヘッドの重要性を決定することによって、ネットワークの不要なコンポーネントを検出し、取り除くことができる。
論文 参考訳(メタデータ) (2020-04-17T11:08:45Z) - Large Batch Training Does Not Need Warmup [111.07680619360528]
大きなバッチサイズを使用してディープニューラルネットワークをトレーニングすることは、有望な結果を示し、多くの現実世界のアプリケーションに利益をもたらしている。
本稿では,大規模バッチ学習のための全層適応レートスケーリング(CLARS)アルゴリズムを提案する。
分析に基づいて,このギャップを埋め,3つの一般的な大規模バッチトレーニング手法の理論的洞察を提示する。
論文 参考訳(メタデータ) (2020-02-04T23:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。