論文の概要: Experiences in Building a Composable and Functional API for Runtime
SPIR-V Code Generation
- arxiv url: http://arxiv.org/abs/2305.09493v2
- Date: Thu, 18 May 2023 13:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 08:35:09.596108
- Title: Experiences in Building a Composable and Functional API for Runtime
SPIR-V Code Generation
- Title(参考訳): 実行時SPIR-Vコード生成のための構成可能で機能的なAPI構築の経験
- Authors: Juan Fumero, Gy\"orgy Rethy, Athanasios Stratikopoulos, Nikos Foutris,
Christos Kotselidis
- Abstract要約: Beehive SPIR-V Toolkitは、SPIR-Vバイナリモジュールを動的に構築するためのJava構成可能で機能的なライブラリを自動的に生成できるフレームワークである。
このフレームワークは、新しいSPIR-Vリリースをメンテナンスが容易な方法で適合するように設計されている。
- 参考スコア(独自算出の注目度): 0.07499722271664144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the Beehive SPIR-V Toolkit; a framework that can
automatically generate a Java composable and functional library for dynamically
building SPIR-V binary modules. The Beehive SPIR-V Toolkit can be used by
optimizing compilers and runtime systems to generate and validate SPIR-V binary
modules from managed runtime systems, such as the Java Virtual Machine (JVM).
Furthermore, our framework is architected to accommodate new SPIR-V releases in
an easy-to-maintain manner, and it facilitates the automatic generation of Java
libraries for other standards, besides SPIR-V. The Beehive SPIR-V Toolkit also
includes an assembler that emits SPIR-V binary modules from disassembled SPIR-V
text files, and a disassembler that converts the SPIR-V binary code into a text
file, and a console client application. To the best of our knowledge, the
Beehive SPIR-V Toolkit is the first Java programming framework that can
dynamically generate SPIR-V binary modules.
To demonstrate the use of our framework, we showcase the integration of the
SPIR-V Beehive Toolkit in the context of the TornadoVM, a Java framework for
automatically offloading and running Java programs on heterogeneous hardware.
We show that, via the SPIR-V Beehive Toolkit, the TornadoVM is able to compile
code 3x faster than its existing OpenCL C JIT compiler, and it performs up to
1.52x faster than the existing OpenCL C backend in TornadoVM.
- Abstract(参考訳): 本稿では,SPIR-Vバイナリモジュールを動的に構築するためのJava構成可能かつ機能的なライブラリを自動生成するフレームワークであるBeehive SPIR-V Toolkitを提案する。
Beehive SPIR-V Toolkitは、コンパイラとランタイムシステムを最適化して、Java仮想マシン(JVM)のようなマネージドランタイムシステムからSPIR-Vバイナリモジュールを生成し、検証することで使用することができる。
さらに,本フレームワークは,SPIR-V 以外の標準用の Java ライブラリの自動生成を容易にするため,メンテナンスが容易な新しい SPIR-V リリースに対応するよう設計されている。
Beehive SPIR-V Toolkitはまた、分解されたSPIR-VテキストファイルからSPIR-Vバイナリモジュールを出力するアセンブラと、SPIR-Vバイナリコードをテキストファイルに変換するアセンブラと、コンソールクライアントアプリケーションを含む。
私たちの知る限り、Beehive SPIR-V ToolkitはSPIR-Vバイナリモジュールを動的に生成できる最初のJavaプログラミングフレームワークです。
私たちのフレームワークの使用を実証するために、異種ハードウェア上でJavaプログラムを自動的にオフロードし実行するためのJavaフレームワークであるTornadoVMのコンテキストにおいて、SPIR-V Beehive Toolkitの統合を紹介します。
我々は、SPIR-V Beehive Toolkitを通じて、TornadoVMが既存のOpenCL C JITコンパイラよりも3倍高速にコードをコンパイルでき、TornadoVMの既存のOpenCL Cバックエンドよりも最大1.22倍高速であることを示した。
関連論文リスト
- TREBLE: Fast Software Updates by Creating an Equilibrium in an Active Software Ecosystem of Globally Distributed Stakeholders [0.0]
TREBLEはAndroidでモジュールベースを構築するための2年間のイニシアチブです。
私たちのTREBLEアーキテクチャは、Javaで書かれたハードウェアに依存しないコアフレームワークと、ハードウェア依存のベンダー実装を分離します。
我々は,年次リリースモデルを用いて,TREBLEアーキテクチャの変更をシリコンベンダやデバイスメーカに提供した経験について論じる。
論文 参考訳(メタデータ) (2024-09-19T20:34:54Z) - CogVLM2: Visual Language Models for Image and Video Understanding [69.361109860391]
画像と映像の理解のための新しいビジュアル言語モデルであるCagVLM2ファミリを提案する。
イメージ理解モデルとして、CogVLM2は、トレーニング前とトレーニング後の両方でトレーニングレシピを改善したビジュアルエキスパートアーキテクチャを継承する。
ビデオ理解モデルとして、CogVLM2-Videoはマルチフレーム入力とタイムスタンプを統合し、時間的グラウンドの自動構築を提案する。
論文 参考訳(メタデータ) (2024-08-29T12:59:12Z) - Assemblage: Automatic Binary Dataset Construction for Machine Learning [35.674339346299654]
Assemblageはクラウドベースの分散システムで、Windows PEバイナリをクロールし、構成し、構築する。
過去1年間、AWS上でAssemblageを実行し、29のコンフィギュレーションで890kのWindows PEと428kのLinux ELFバイナリを生成しました。
論文 参考訳(メタデータ) (2024-05-07T04:10:01Z) - Forklift: An Extensible Neural Lifter [11.633770744027682]
トークンレベルのエンコーダ-デコーダ変換器を用いて,アセンブリをLLVM IRに変換する方法を学ぶ最初のニューラルリフトであるForkliftを提案する。
並列なLLVM IR、x86、ARM、RISC-Vプログラムをコンパイラや最適化レベルにわたって収集し、Forkliftをトレーニングし、入出力ベースの精度ハーネスをセットアップします。
我々は、Forkliftを2つの挑戦的なベンチマークスイートで評価し、最先端の手書きリフタよりも2.5倍、GPT-4より4.4倍のx86プログラムを翻訳し、新しいISAからの翻訳を可能にした。
論文 参考訳(メタデータ) (2024-04-01T17:27:58Z) - ESPnet-SPK: full pipeline speaker embedding toolkit with reproducible recipes, self-supervised front-ends, and off-the-shelf models [51.35570730554632]
ESPnet-SPKは、話者埋め込み抽出器を訓練するためのツールキットである。
我々は、x-vectorから最近のSKA-TDNNまで、いくつかのモデルを提供している。
開発モデルと他のドメインとの橋渡しも目指しています。
論文 参考訳(メタデータ) (2024-01-30T18:18:27Z) - VEXIR2Vec: An Architecture-Neutral Embedding Framework for Binary Similarity [36.341893383865745]
VexIR2Vecはアーキテクチャニュートラル中間表現(IR)であるVEX-IRを用いたバイナリ類似性のためのアプローチである
我々は、知識グラフ埋め込み技術を用いて、IRの実体レベルで表現の語彙を教師なしで学習する。
VexIR2Vecは3.1ドル-3.5ドルで、最も近いベースラインとマグニチュードよりも高速である。
論文 参考訳(メタデータ) (2023-12-01T11:22:10Z) - ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world
APIs [104.37772295581088]
オープンソースの大規模言語モデル(LLM)、例えばLLaMAは、ツール使用能力に大きく制限されている。
データ構築、モデルトレーニング、評価を含む汎用ツールであるToolLLMを紹介する。
ツール使用のためのインストラクションチューニングフレームワークであるToolBenchを,ChatGPTを使って自動構築する。
論文 参考訳(メタデータ) (2023-07-31T15:56:53Z) - BU-CVKit: Extendable Computer Vision Framework for Species Independent
Tracking and Analysis [7.036239435275302]
本稿では,チェーンプロセッサを用いた研究パイプライン作成を可能にするコンピュータビジョンフレームワークを提案する。
コミュニティはフレームワークの作業のプラグインを作成できるため、再利用性、アクセシビリティ、作業の公開性が向上する。
フレームワーク用に作成されたサンプルプラグインを通じて生成された行動パイプラインの例を示す。
論文 参考訳(メタデータ) (2023-06-07T19:12:03Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z) - Composing Complex and Hybrid AI Solutions [52.00820391621739]
一般的なAIアプリケーションで上記の機能を実現するためのAcumosシステムの拡張について述べる。
当社の拡張機能には、gRPC/Protobufインターフェースによるより汎用的なコンポーネントのサポートが含まれています。
デプロイ可能なソリューションとそのインターフェースの例を提供する。
論文 参考訳(メタデータ) (2022-02-25T08:57:06Z) - VEGA: Towards an End-to-End Configurable AutoML Pipeline [101.07003005736719]
VEGAは効率よく包括的なAutoMLフレームワークで、複数のハードウェアプラットフォームに互換性があり、最適化されている。
VEGAは既存のAutoMLアルゴリズムを改善し、SOTAメソッドに対して新しい高性能モデルを発見する。
論文 参考訳(メタデータ) (2020-11-03T06:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。