論文の概要: Yoimiya: A Scalable Framework for Optimal Resource Utilization in ZK-SNARK Systems
- arxiv url: http://arxiv.org/abs/2502.18288v1
- Date: Tue, 25 Feb 2025 15:26:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 17:42:46.121007
- Title: Yoimiya: A Scalable Framework for Optimal Resource Utilization in ZK-SNARK Systems
- Title(参考訳): Yoimiya: ZK-SNARKシステムにおける最適なリソース利用のためのスケーラブルなフレームワーク
- Authors: Zheming Ye, Xiaodong Qi, Zhao Zhang, Cheqing Jin,
- Abstract要約: Yoimiyaは、ZK-SNARKシステムの効率を最適化するパイプラインを備えたスケーラブルなフレームワークである。
Yoimiyaは、ZK-SNARKの大きな回路を小さなサブ回路に分割する自動回路分割アルゴリズムを導入している。
与宮は証人生成を証明計算から切り離し、複数の回路から単位を同時実行する。
- 参考スコア(独自算出の注目度): 10.182835825666102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the widespread adoption of Zero-Knowledge Proof systems, particularly ZK-SNARK, the efficiency of proof generation, encompassing both the witness generation and proof computation phases, has become a significant concern. While substantial efforts have successfully accelerated proof computation, progress in optimizing witness generation remains limited, which inevitably hampers overall efficiency. In this paper, we propose Yoimiya, a scalable framework with pipeline, to optimize the efficiency in ZK-SNARK systems. First, Yoimiya introduces an automatic circuit partitioning algorithm that divides large circuits of ZK-SNARK into smaller subcircuits, the minimal computing units with smaller memory requirement, allowing parallel processing on multiple units. Second, Yoimiya decouples witness generation from proof computation, and achieves simultaneous executions over units from multiple circuits. Moreover, Yoimiya enables each phase scalable separately by configuring the resource distribution to make the time costs of the two phases aligned, maximizing the resource utilization. Experimental results confirmed that our framework effectively improves the resource utilization and proof generation speed.
- Abstract(参考訳): Zero-Knowledge Proofシステム、特にZK-SNARKの普及により、証人生成と証明計算フェーズの両方を含む証明生成の効率が大きな関心事となっている。
かなりの努力が証明計算の高速化に成功しているが、目撃者生成の最適化の進歩は限定的であり、これは必然的に全体の効率を損なう。
本稿では,ZK-SNARKシステムの効率を最適化するために,パイプラインを用いたスケーラブルなフレームワークであるYoimiyaを提案する。
まず,ZK-SNARKの大規模回路を小さなサブ回路に分割する自動回路分割アルゴリズムを導入する。
第二に、陽宮は証人生成を証明計算から切り離し、複数の回路からのユニットの同時実行を実現する。
さらに,2つのフェーズの時間コストを一致させ,資源利用を最大化することにより,各フェーズを個別にスケーラブルにすることができる。
実験結果から,本フレームワークは資源利用率と実証生成速度を効果的に向上することを確認した。
関連論文リスト
- semi-PD: Towards Efficient LLM Serving via Phase-Wise Disaggregated Computation and Unified Storage [6.805644270436825]
本稿では,分散計算と統一ストレージを特徴とする,新たな大規模言語モデル (LLM) サービスシステムであるセミPDを提案する。
最先端システムと比較して、セミPDはより高い要求レートでレイテンシを低く保ち、リクエスト毎の平均エンドツーエンドレイテンシを1.27-2.58倍削減する。
論文 参考訳(メタデータ) (2025-04-28T15:00:03Z) - R-Sparse: Rank-Aware Activation Sparsity for Efficient LLM Inference [77.47238561728459]
R-スパース(R-Sparse)は、高度なLCMにおいて高い疎度を達成できる訓練不要なアクティベーション・スパシティ・アプローチである。
10種類のタスクにわたるLlama-2/3およびMistralモデルの実験は、R-Sparseが50%のモデルレベルの間隔で同等のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-28T03:30:32Z) - Optimizing LLM Inference: Fluid-Guided Online Scheduling with Memory Constraints [14.341123057506827]
大規模言語モデル(LLM)は、今日のアプリケーションでは必須であるが、推論手順は重要な計算資源を必要とする。
本稿では,多段階オンラインスケジューリング問題としてLLM推論最適化を定式化する。
我々は,アルゴリズム設計をガイドするトラクタブルなベンチマークを提供するために,流体力学近似を開発した。
論文 参考訳(メタデータ) (2025-04-15T16:00:21Z) - Seesaw: High-throughput LLM Inference via Model Re-sharding [8.840996987380484]
本稿ではスループット指向タスクに最適化された推論エンジンであるSeesawを紹介する。
Seesawの背景にある主要なアイデアは、並列化戦略の動的再構成を容易にする技術である動的モデル再シャーディングである。
論文 参考訳(メタデータ) (2025-03-09T04:14:06Z) - Joint Transmit and Pinching Beamforming for PASS: Optimization-Based or Learning-Based? [89.05848771674773]
MISO (Multiple-input Single-output) フレームワークを提案する。
それは複数の導波路で構成されており、多数の低コストアンテナ(PA)を備えている。
PAの位置は、大規模パスと空間の両方にまたがるように再構成することができる。
論文 参考訳(メタデータ) (2025-02-12T18:54:10Z) - Optimal control in large open quantum systems: the case of transmon readout and reset [44.99833362998488]
本稿では, 随伴状態法と逆時間バックプロパゲーションを組み合わせることで, 極めて大規模なオープンシステム量子制御問題を解く枠組みを提案する。
超伝導量子ビットにおける2つの本質的に散逸する演算を最適化するために、この枠組みを適用した。
提案手法は, 標準パルスがほぼ最適であるのに対して, プロトコル中にトランスモンドライブを付加することで, 忠実度と持続時間の2倍向上が期待できることを示す。
論文 参考訳(メタデータ) (2024-03-21T18:12:51Z) - DB-LLM: Accurate Dual-Binarization for Efficient LLMs [83.70686728471547]
大規模言語モデル(LLM)は自然言語処理の分野を著しく進歩させてきた。
既存の超低ビット量子化は、常に深刻な精度低下を引き起こす。
本稿では,LLM,すなわちDB-LLMのための新しいデュアルバイナライズ手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T09:04:30Z) - Sparsity-Aware Distributed Learning for Gaussian Processes with Linear Multiple Kernel [20.98449975854329]
本稿では,新しいGP線形多重カーネル (LMK) と,ハイパーパラメータを最適化する汎用空間認識分散学習フレームワークを提案する。
新たに提案されたグリッドスペクトル混合製品(GSMP)カーネルは,多次元データ用に調整されている。
そこで本研究では,Sparse LInear Multiple Kernel Learning (SLIM-KL) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-15T07:05:33Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - Learning to Schedule Heuristics for the Simultaneous Stochastic
Optimization of Mining Complexes [2.538209532048867]
提案したL2P(Learning-to-perturb)ハイパーヒューリスティックは,マルチ隣り合うシミュレートアニールアルゴリズムである。
L2Pは、効率、堅牢性、一般化能力に重点を置いて、いくつかの実世界の鉱業施設で試験されている。
その結果,反復回数を30~50%削減し,計算時間を30~45%削減した。
論文 参考訳(メタデータ) (2022-02-25T18:20:14Z) - Fully Quantized Image Super-Resolution Networks [81.75002888152159]
効率と精度を両立させるためのフル量子化画像超解像フレームワーク(FQSR)を提案する。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
低ビット量子化を用いたFQSRは、5つのベンチマークデータセットの完全精度と比較すると、パー性能で実現できる。
論文 参考訳(メタデータ) (2020-11-29T03:53:49Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。