論文の概要: Towards Faster Reasoners By Using Transparent Huge Pages
- arxiv url: http://arxiv.org/abs/2004.14378v1
- Date: Wed, 29 Apr 2020 17:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 14:27:22.266911
- Title: Towards Faster Reasoners By Using Transparent Huge Pages
- Title(参考訳): 透明な巨大ページによる推論の高速化に向けて
- Authors: Johannes K. Fichte, Norbert Manthey, Julian Stecklina, Andr\'e
Schidler
- Abstract要約: 本研究では,ARツールのランタイムを平均で10%,長期実行タスクで最大20%削減するアプローチを提案する。
我々の改善は、ARツールで使用されるデータ構造に付随する高メモリ使用量に対処しています。
- 参考スコア(独自算出の注目度): 0.491574468325115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various state-of-the-art automated reasoning (AR) tools are widely used as
backend tools in research of knowledge representation and reasoning as well as
in industrial applications. In testing and verification, those tools often run
continuously or nightly. In this work, we present an approach to reduce the
runtime of AR tools by 10% on average and up to 20% for long running tasks. Our
improvement addresses the high memory usage that comes with the data structures
used in AR tools, which are based on conflict driven no-good learning. We
establish a general way to enable faster memory access by using the memory
cache line of modern hardware more effectively. Therefore, we extend the
standard C library (glibc) by dynamically allowing to use a memory management
feature called huge pages. Huge pages allow to reduce the overhead that is
required to translate memory addresses between the virtual memory of the
operating system and the physical memory of the hardware. In that way, we can
reduce runtime, costs, and energy consumption of AR tools and applications with
similar memory access patterns simply by linking the tool against this new
glibc library when compiling it. In every day industrial applications this
easily allows to be more eco-friendly in computation. To back up the claimed
speed-up, we present experimental results for tools that are commonly used in
the AR community, including the domains ASP, BMC, MaxSAT, SAT, and SMT.
- Abstract(参考訳): 様々な最先端自動化推論(ar)ツールは、知識表現と推論の研究や産業アプリケーションでバックエンドツールとして広く使われている。
テストと検証では、これらのツールは連続的あるいは夜間に実行されることが多い。
本研究では,ARツールのランタイムを平均で10%,長期実行タスクで最大20%削減するアプローチを提案する。
我々の改善は、ARツールで使用されるデータ構造に付随する高メモリ使用量に対処しています。
最新のハードウェアのメモリキャッシュラインをより効率的に利用することにより、メモリアクセスを高速化する一般的な方法を確立する。
そこで我々は,標準cライブラリ(glibc)を動的に拡張し,巨大ページと呼ばれるメモリ管理機能を利用可能にした。
巨大なページは、オペレーティングシステムの仮想メモリとハードウェアの物理メモリの間でメモリアドレスを変換するために必要なオーバーヘッドを削減することができる。
このようにして、コンパイル時にツールとこの新しいglibcライブラリをリンクするだけで、同様のメモリアクセスパターンを持つarツールやアプリケーションのランタイム、コスト、エネルギー消費量を削減できる。
毎日の産業アプリケーションでは、計算においてよりエコフレンドリーになる。
要求されるスピードアップを支援するために、ASP、BMC、MaxSAT、SAT、SMTといったARコミュニティで一般的に使われているツールの実験結果を示す。
関連論文リスト
- vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - B'MOJO: Hybrid State Space Realizations of Foundation Models with Eidetic and Fading Memory [91.81390121042192]
我々はB'MOJOと呼ばれるモデル群を開発し、構成可能なモジュール内で理想的メモリと暗黙的メモリをシームレスに結合する。
B'MOJOのイデオティックメモリとフェードメモリを変調する能力は、32Kトークンまでテストされた長いシーケンスの推論をより良くする。
論文 参考訳(メタデータ) (2024-07-08T18:41:01Z) - Needle in the Haystack for Memory Based Large Language Models [31.885539843977472]
現在の大規模言語モデル(LLM)は、単純な事実検索タスクではよく機能しない。
動的に適応可能な外部メモリをLCMに結合することでこの問題を軽減することができるか検討する。
テキストサンプルのエピソードを高速に書き書きできるLarimarの外部メモリは、テスト時に、トレーニング中に見られるものよりもはるかに長いコンテキストを扱うために使用できることを示した。
論文 参考訳(メタデータ) (2024-07-01T16:32:16Z) - Augmenting Language Models with Long-Term Memory [142.04940250657637]
既存の大規模言語モデル(LLM)では、入力長制限のため、固定サイズの入力しかできない。
本稿では,Long-Term Memory (LongMem) を付加した言語モデルを提案する。
論文 参考訳(メタデータ) (2023-06-12T15:13:39Z) - Learning to Rank Graph-based Application Objects on Heterogeneous
Memories [0.0]
本稿では,アプリケーションの性能に最も影響を与えるアプリケーションオブジェクトを識別し,特徴付ける手法について述べる。
予測モデルを用いてデータ配置を行うことで,ベースラインのアプローチと比較して,実行時間の劣化を12% (平均) および30% (最大) 削減することができる。
論文 参考訳(メタデータ) (2022-11-04T00:20:31Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Carousel Memory: Rethinking the Design of Episodic Memory for Continual
Learning [19.260402028696916]
継続的な学習(CL)は、以前のタスクから学んだ知識を忘れずに、連続したタスクストリームから学習することを目的としている。
以前の研究では、新しい非i.d.データから学習しながら、過去の観測されたサンプルのサブセットを格納するエピソードメモリ(EM)を利用している。
メモリとストレージ間のサンプルを効率よく移行させることにより,過去の経験を保存し,忘れを軽減すべく,豊富なストレージを活用することを提案する。
論文 参考訳(メタデータ) (2021-10-14T11:27:45Z) - Programmable FPGA-based Memory Controller [9.013666207570749]
本稿では,利用可能なハードウェアリソース上の異なるターゲットアプリケーションに対して,モジュール型でプログラム可能なメモリコントローラを提案する。
提案したメモリコントローラは、キャッシュラインアクセスとバルクメモリ転送を効率的にサポートする。
商用メモリコントローラIPと比較して,CNNおよびGCNワークロードのメモリアクセス時間は最大58%向上した。
論文 参考訳(メタデータ) (2021-08-21T23:53:12Z) - Hands-off Model Integration in Spatial Index Structures [8.710716183434918]
本稿では,軽量機械学習モデルを用いて空間インデックスのクエリを高速化する機会について検討する。
我々は、R木において、おそらく最も広く使われている空間指標である、それと類似した手法を使うことの可能性を探ることによって、そうする。
分析で示すように、クエリの実行時間を最大60%削減でき、同時にインデックスのメモリフットプリントを90%以上削減できる。
論文 参考訳(メタデータ) (2020-06-29T22:05:28Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。