論文の概要: CHERI Performance Enhancement for a Bytecode Interpreter
- arxiv url: http://arxiv.org/abs/2308.05076v2
- Date: Tue, 12 Sep 2023 20:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 17:20:52.830919
- Title: CHERI Performance Enhancement for a Bytecode Interpreter
- Title(参考訳): バイトコード解釈のためのCHERI性能向上
- Authors: Duncan Lowther, Dejice Jacob, Jeremy Singer
- Abstract要約: 我々は、ネイティブポインタ(一般に64ビット)と比較して、CHERI機能(128ビット)が大きいため、ある種類のソフトウェアが引き起こすランタイムオーバーヘッドを取り除くことができることを示す。
最悪の場合のスローダウンは100倍(最適化前)から2倍(最適化後)まで大幅に改善される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: During our port of the MicroPython bytecode interpreter to the CHERI-based
Arm Morello platform, we encountered a number of serious performance
degradations. This paper explores several of these performance issues in
detail, in each case we characterize the cause of the problem, the fix, and the
corresponding interpreter performance improvement over a set of standard Python
benchmarks.
While we recognize that Morello is a prototypical physical instantiation of
the CHERI concept, we show that it is possible to eliminate certain kinds of
software-induced runtime overhead that occur due to the larger size of CHERI
capabilities (128 bits) relative to native pointers (generally 64 bits). In our
case, we reduce a geometric mean benchmark slowdown from 5x (before
optimization) to 1.7x (after optimization) relative to AArch64, non-capability,
execution. The worst-case slowdowns are greatly improved, from 100x (before
optimization) to 2x (after optimization).
The key insight is that implicit pointer size presuppositions pervade systems
code; whereas previous CHERI porting projects highlighted compile-time and
execution-time errors exposed by pointer size assumptions, we instead focus on
the performance implications of such assumptions.
- Abstract(参考訳): マイクロPythonバイトコードインタプリタをCHERIベースのArm Morelloプラットフォームに移植した際、多くの重大なパフォーマンス劣化が発生しました。
本稿では、これらのパフォーマンス問題のいくつかを詳細に検討し、それぞれのケースにおいて、問題の原因、修正、および対応するインタプリタのパフォーマンス改善を、標準pythonベンチマークのセットに対して特徴付ける。
モレロがcheriの概念の原型的物理的インスタンス化であることは認識しているが、ネイティブポインタ(一般に64ビット)に比べてcheri能力(128ビット)が大きいため、特定の種類のソフトウェアによって引き起こされるランタイムオーバーヘッドを排除できることが示されている。
今回のケースでは、幾何平均ベンチマークのスローダウンを5倍(最適化前)から1.7倍(最適化後)に削減しています。
最悪のケースのスローダウンは100倍(最適化前)から2倍(最適化後)まで大幅に改善されている。
以前のcheri移植プロジェクトでは、コンパイル時および実行時エラーがポインタサイズ仮定で露呈されているのに対して、代わりに、このような仮定のパフォーマンスへの影響に注目しています。
関連論文リスト
- An Effectively $Ω(c)$ Language and Runtime [0.0]
アプリケーションの優れたパフォーマンスは、概念的にはバイナリ関数以上のものです。
私たちのビジョンは、パフォーマンスにおいて$Omega(c)$として設計された言語とランタイムを作ることです。
論文 参考訳(メタデータ) (2024-09-30T16:57:45Z) - CRUXEval-X: A Benchmark for Multilingual Code Reasoning, Understanding and Execution [50.7413285637879]
CRUXEVAL-Xコード推論ベンチマークには19のプログラミング言語が含まれている。
各言語に対して少なくとも600人の被験者で構成され、合計19Kのコンテンツ一貫性テストがある。
Pythonでのみトレーニングされたモデルでさえ、他の言語で34.4%のPass@1を達成することができる。
論文 参考訳(メタデータ) (2024-08-23T11:43:00Z) - Should AI Optimize Your Code? A Comparative Study of Current Large Language Models Versus Classical Optimizing Compilers [0.0]
大規模言語モデル(LLM)は、コード最適化方法論に革命をもたらすAI駆動アプローチの可能性に関する興味深い疑問を提起する。
本稿では、GPT-4.0とCodeLlama-70Bの2つの最先端大言語モデルと従来の最適化コンパイラの比較分析を行う。
論文 参考訳(メタデータ) (2024-06-17T23:26:41Z) - Optimization of Armv9 architecture general large language model inference performance based on Llama.cpp [0.3749861135832073]
本稿では、Int8量子化を行い、ラマ中の演算子をベクトル化し、コンパイルスクリプトを変更することにより、Qwen-1.8Bモデルの推論性能を最適化する。
Yitian 710実験プラットフォームでは、プリフィル性能が1.6倍に向上し、復号性能が24倍に向上し、メモリ使用量が元の1/5に減少し、精度損失はほぼ無視される。
論文 参考訳(メタデータ) (2024-06-16T06:46:25Z) - BTR: Binary Token Representations for Efficient Retrieval Augmented Language Models [77.0501668780182]
Retrieval augmentationは、大規模言語モデルにおける多くの重要な問題に対処する。
検索拡張言語モデル(LM)の実行は遅く、大量の検索されたテキストを処理するため、スケールが困難である。
1ビットベクトルを用いて各トークンを前処理するバイナリトークン表現(BTR)を導入する。
論文 参考訳(メタデータ) (2023-10-02T16:48:47Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - POSET-RL: Phase ordering for Optimizing Size and Execution Time using
Reinforcement Learning [0.0]
位相順序付け問題に対する強化学習に基づく解法を提案する。
Oz Dependence Graph (ODG) と呼ばれるグラフを手動順序付けでモデル化する2つの手法を提案する。
論文 参考訳(メタデータ) (2022-07-27T08:32:23Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z) - Enabling Fast Differentially Private SGD via Just-in-Time Compilation
and Vectorization [8.404254529115835]
差分プライベート機械学習における共通の問題点は、差分プライベートグラディエントDescent(DPSGD)の実行時に発生する重要なランタイムオーバーヘッドである。
我々は、強力な言語プリミティブを利用することで、これらのオーバーヘッドを劇的に削減できることを示した。
論文 参考訳(メタデータ) (2020-10-18T18:45:04Z) - Real-Time Execution of Large-scale Language Models on Mobile [49.32610509282623]
BERTの最良のモデル構造は,特定のデバイスに適合する計算サイズである。
我々のフレームワークは、モバイルデバイスのリソース仕様とリアルタイム仕様の両方を満たすための特定モデルを保証することができる。
具体的には、当社のモデルはCPUでは5.2倍、GPUでは4.1倍、BERTベースでは0.5-2%の精度損失がある。
論文 参考訳(メタデータ) (2020-09-15T01:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。