論文の概要: Vector Commitments with Efficient Updates
- arxiv url: http://arxiv.org/abs/2307.04085v5
- Date: Sat, 4 May 2024 06:49:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 01:16:13.261668
- Title: Vector Commitments with Efficient Updates
- Title(参考訳): 効率的なアップデートによるベクトルコミット
- Authors: Ertem Nusret Tas, Dan Boneh,
- Abstract要約: 個別開封証明の更新に必要な更新情報のサイズと実行時複雑性の関係について検討する。
既存のベクトルコミットメントスキームでは、情報サイズまたは実行時のスケールを更新された状態要素の$k$で線形にする必要がある。
例えば$knu$と$k1-nu$ for any $nu in (0,1)$に対して、$knu$と$k1-nu$のサブ線形である長さとランタイムの両方を達成するベクトルコミットメントスキームを構築する。
- 参考スコア(独自算出の注目度): 15.870449061548412
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic vector commitments that enable local updates of opening proofs have applications ranging from verifiable databases with membership changes to stateless clients on blockchains. In these applications, each user maintains a relevant subset of the committed messages and the corresponding opening proofs with the goal of ensuring a succinct global state. When the messages are updated, users are given some global update information and update their opening proofs to match the new vector commitment. We investigate the relation between the size of the update information and the runtime complexity needed to update an individual opening proof. Existing vector commitment schemes require that either the information size or the runtime scale linearly in the number $k$ of updated state elements. We construct a vector commitment scheme that asymptotically achieves both length and runtime that is sublinear in $k$, namely $k^\nu$ and $k^{1-\nu}$ for any $\nu \in (0,1)$. We prove an information-theoretic lower bound on the relation between the update information size and runtime complexity that shows the asymptotic optimality of our scheme. For $\nu = 1/2$, our constructions outperform Verkle commitments by about a factor of $2$ in terms of both the update information size and runtime, but makes use of larger public parameters.
- Abstract(参考訳): オープン証明のローカル更新を可能にする動的ベクトルコミットメントには、メンバシップ変更の検証可能なデータベースから、ブロックチェーン上のステートレスクライアントまで、幅広いアプリケーションがある。
これらのアプリケーションでは、各ユーザがコミットしたメッセージとそれに対応するオープニング証明の関連するサブセットを保持し、簡潔なグローバル状態を保証することを目的としている。
メッセージが更新されると、ユーザはいくつかのグローバルな更新情報を与えられ、新しいベクターコミットメントに合わせてオープニング証明が更新される。
個別開封証明の更新に必要な更新情報のサイズと実行時複雑性の関係について検討する。
既存のベクトルコミットメントスキームでは、情報サイズまたは実行時のスケールを更新された状態要素の$k$で線形にする必要がある。
我々は、任意の$\nu \in (0,1)$に対して$k^\nu$ と $k^{1-\nu}$ の副線型な長さとランタイムの両方を漸近的に達成するベクトルコミットメントスキームを構築する。
本手法の漸近的最適性を示す更新情報サイズと実行時複雑性の関係を,情報理論の下限として証明する。
$\nu = 1/2$の場合、我々の構成はVerkleのコミットメントを、更新情報のサイズと実行時の両方で約2ドル上回るが、より大きな公開パラメータを使用する。
関連論文リスト
- High-Dimensional Distributed Sparse Classification with Scalable Communication-Efficient Global Updates [50.406127962933915]
我々はコミュニケーション効率のよい分散ロジスティック回帰モデルを学ぶことができる問題に対する解決策を開発する。
実験では、いくつかの分散更新ステップだけで、分散アルゴリズムよりも精度が大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-07-08T19:34:39Z) - WikiFactDiff: A Large, Realistic, and Temporally Adaptable Dataset for Atomic Factual Knowledge Update in Causal Language Models [3.6921454547718784]
ウィキファクトディフ(WikiFactDiff)は、2つの日付間の事実知識の進化を記述したデータセットである。
これら3つの基本更新の様々な組み合わせから生じるいくつかの更新シナリオについて述べる。
論文 参考訳(メタデータ) (2024-03-21T12:45:12Z) - Information Association for Language Model Updating by Mitigating
LM-Logical Discrepancy [68.31760483418901]
大規模言語モデル(LLM)は、時代遅れの事前学習データのために現在の情報を提供するのに苦労する。
知識編集や連続的な微調整など,従来のLCMの更新方法は,新たな情報の一般化に重大な欠点がある。
これらの欠点の中核となる課題は,言語モデリングの確率と論理的確率の差を特徴とするLM論理的相違である。
論文 参考訳(メタデータ) (2023-05-29T19:48:37Z) - MCPrioQ: A lock-free algorithm for online sparse markov-chains [0.0]
MCPrioQは、オンラインおよび継続的学習を可能にする、ロックフリーのスパースマーコブチェーンである。
特に、下降確率順で$n$-itemsのルックアップを推奨するシステムに適している。
論文 参考訳(メタデータ) (2023-04-28T12:19:26Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment [90.60126724503662]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggは、ビザンツの攻撃やプライバシーの漏洩から保護されている。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - Timely Communication in Federated Learning [65.1253801733098]
我々は,パラメータサーバ(PS)が,クラウドサーバにクライアントデータを集中的に格納することなく,$n$クライアントを用いてグローバルモデルを訓練するグローバルラーニングフレームワークを検討する。
提案されたスキームでは、各イテレーションでPSは$m$のクライアントを待ち、現在のモデルを送信する。
各クライアントが経験する情報の平均年齢を見つけ、与えられた$n$の年齢最適値である$m$と$k$を数値的に特徴付ける。
論文 参考訳(メタデータ) (2020-12-31T18:52:08Z) - Superiority of Simplicity: A Lightweight Model for Network Device
Workload Prediction [58.98112070128482]
本稿では,歴史観測に基づく時系列予測のための軽量な解を提案する。
ニューラルネットワークと平均予測器という2つのモデルからなる異種アンサンブル法で構成されている。
利用可能なFedCSIS 2020チャレンジデータセットの総合的なR2$スコア0.10を達成している。
論文 参考訳(メタデータ) (2020-07-07T15:44:16Z) - Deep Partial Updating: Towards Communication Efficient Updating for
On-device Inference [12.965226102612174]
新たなエッジインテリジェンスアプリケーションは、サーバがリモートエッジノードにデプロイされたディープニューラルネットワークを再トレーニングし、更新する必要がある。
高度に制約された通信リソースのために、完全に更新された重みをこれらのエッジノードに継続的に送信することは、実際には不可能かもしれない。
本稿では,サーバ間通信ラウンド毎に,重みの小さなサブセットをスマートに選択して更新する,重みの深い部分更新パラダイムを提案する。
論文 参考訳(メタデータ) (2020-07-06T21:22:20Z) - Fully Asynchronous Policy Evaluation in Distributed Reinforcement
Learning over Networks [14.636457985379746]
本稿では,有向ピアツーピアネットワーク上での分散強化学習(DisRL)のポリシー評価問題に対する非同期手法を提案する。
ネットワークの他のノードを待つことなく、各ノードは隣人からの(おそらく遅れた)情報を使用して、いつでもローカルに値関数を更新できる。
論文 参考訳(メタデータ) (2020-03-01T08:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。