論文の概要: Valida ISA Spec, version 1.0: A zk-Optimized Instruction Set Architecture
- arxiv url: http://arxiv.org/abs/2505.08114v1
- Date: Mon, 12 May 2025 23:03:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.357298
- Title: Valida ISA Spec, version 1.0: A zk-Optimized Instruction Set Architecture
- Title(参考訳): Valida ISA Spec, Version 1.0: zk-Optimized Instruction Set Architecture
- Authors: Morgan Thomas, Mamy Ratsimbazafy, Marcin Bugaj, Lewis Revill, Carlo Modica, Sebastian Schmidt, Ventali Tan, Daniel Lubarov, Max Gillett, Wei Dai,
- Abstract要約: Valida命令セットアーキテクチャはzkVMの実装のために設計されており、高速で効率的な実行証明のために最適化されている。
この仕様は、Valida用のzkVMとコンパイラツールチェーンの実装をガイドすることを目的としている。
- 参考スコア(独自算出の注目度): 2.0790368408580138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Valida instruction set architecture is designed for implementation in zkVMs to optimize for fast, efficient execution proving. This specification intends to guide implementors of zkVMs and compiler toolchains for Valida. It provides an unambiguous definition of the semantics of Valida programs and may be used as a starting point for formalization efforts.
- Abstract(参考訳): Valida命令セットアーキテクチャはzkVMの実装のために設計されており、高速で効率的な実行証明のために最適化されている。
この仕様は、Valida用のzkVMとコンパイラツールチェーンの実装をガイドすることを目的としている。
これは、Validaプログラムの意味論の曖昧な定義を提供し、形式化の取り組みの出発点として使われるかもしれない。
関連論文リスト
- RAISE: Reinforenced Adaptive Instruction Selection For Large Language Models [48.63476198469349]
本稿では,タスクオブジェクト駆動型命令選択フレームワークRAISEを提案する。
RAISEは命令の微調整プロセス全体を最適化に組み込んでいる。
モデルの性能改善に対する命令の期待される影響に基づいて,各ステップで命令を選択する。
論文 参考訳(メタデータ) (2025-04-09T21:17:52Z) - Should AI Optimize Your Code? A Comparative Study of Classical Optimizing Compilers Versus Current Large Language Models [0.0]
大規模言語モデル(LLM)は、コード最適化に革命をもたらすAIアプローチの可能性に関する興味深い疑問を提起する。
この作業は、コンパイラコミュニティにとって重要な質問に答えることを目的としている。
本稿では3つの古典最適化コンパイラと2つの最近の大規模言語モデルの比較分析を行う。
論文 参考訳(メタデータ) (2024-06-17T23:26:41Z) - Contrastive Instruction Tuning [61.97704869248903]
意味論的に等価な命令-インスタンスペア間の類似性を最大化するために、コントラスト命令チューニングを提案する。
PromptBenchベンチマークの実験によると、CoINはLLMの頑健さを一貫して改善し、文字、単語、文、意味のレベルを平均して2.5%の精度で変化させる。
論文 参考訳(メタデータ) (2024-02-17T00:09:32Z) - SparseOptimizer: Sparsify Language Models through Moreau-Yosida
Regularization and Accelerate via Compiler Co-design [0.685316573653194]
本稿では, BERT, ALBERT, GPTなどの大規模言語モデルにおいて, モロー・ヨシダ正規化を利用した新しいディープラーニングであるスペーサーを紹介する。
Sparserのプラグイン・アンド・プレイ機能は、コード修正の必要性を排除し、幅広い大きな言語モデルに対して普遍的に適応可能なツールである。
GLUE, RACE, SQuAD1, SQuAD2などのベンチマークデータセットに関する実証的な評価では、SBERTとSprserは、Sparserを使用すると、その密度の高いデータセットに匹敵するパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-27T17:50:26Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z) - Enabling Retargetable Optimizing Compilers for Quantum Accelerators via
a Multi-Level Intermediate Representation [78.8942067357231]
我々は、最適化され、再ターゲット可能で、事前コンパイルが可能なマルチレベル量子古典中間表現(IR)を提案する。
ゲートベースのOpenQASM 3言語全体をサポートし、共通量子プログラミングパターンのカスタム拡張と構文の改善を提供します。
私たちの研究は、通常のPythonのアプローチよりも1000倍高速で、スタンドアロンの量子言語コンパイラよりも5~10倍高速なコンパイル時間を実現しています。
論文 参考訳(メタデータ) (2021-09-01T17:29:47Z) - A Case Study of LLVM-Based Analysis for Optimizing SIMD Code Generation [0.0]
本稿では,新しいARM A64FXプロセッサをターゲットとした DCA++ アプリケーションをチューニングするために,LLVM ベースのツールを使用する手法を提案する。
これらのコード変更を適用することで、コードスピードは1.98X増加し、A64FXプロセッサ上で78GFlopsを達成した。
論文 参考訳(メタデータ) (2021-06-27T22:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。