論文の概要: From Indexing to Coding: A New Paradigm for Data Availability Sampling
- arxiv url: http://arxiv.org/abs/2509.21586v1
- Date: Thu, 25 Sep 2025 20:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.016336
- Title: From Indexing to Coding: A New Paradigm for Data Availability Sampling
- Title(参考訳): インデックスからコーディングへ - データアベイラビリティサンプリングのための新しいパラダイム
- Authors: Moritz Grundei, Aayush Rajasekaran, Kishori Konwar, Muriel Medard,
- Abstract要約: 我々はDASに新たなアプローチを導入し、オンザフライコーディングによるサンプリングを行いながら、未コーディングデータにコミットすることで、コーディングとコミットメントのプロセスをモジュール化する。
結果として得られたサンプルははるかに表現力が高く、光ノードは具体的実装において、データの可用性の保証を最大で複数の順序で得ることができる。
- 参考スコア(独自算出の注目度): 0.37331950863394864
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The data availability problem is a central challenge in blockchain systems and lies at the core of the accessibility and scalability issues faced by platforms such as Ethereum. Modern solutions employ several approaches, with data availability sampling (DAS) being the most self-sufficient and minimalistic in its security assumptions. Existing DAS methods typically form cryptographic commitments on codewords of fixed-rate erasure codes, which restrict light nodes to sampling from a predetermined set of coded symbols. In this paper, we introduce a new approach to DAS that modularizes the coding and commitment process by committing to the uncoded data while performing sampling through on-the-fly coding. The resulting samples are significantly more expressive, enabling light nodes to obtain, in concrete implementations, up to multiple orders of magnitude stronger assurances of data availability than from sampling pre-committed symbols from a fixed-rate redundancy code as done in established DAS schemes using Reed Solomon or low density parity check codes. We present a concrete protocol that realizes this paradigm using random linear network coding (RLNC).
- Abstract(参考訳): データ可用性問題は、ブロックチェーンシステムにおける中心的な課題であり、Ethereumのようなプラットフォームが直面しているアクセシビリティとスケーラビリティの問題の中核にある。
現代のソリューションはいくつかのアプローチを採用しており、データ可用性サンプリング(DAS)はセキュリティ上の前提において最も自己充足的で最小限のものである。
既存のDASメソッドは通常、固定レート消去符号のコードワードに暗号的なコミットメントを形成し、光ノードが所定の符号付きシンボルのセットからサンプリングすることを制限する。
本稿では,DASに対して,オンザフライコーディングによるサンプリングを行いながら,未コーディングデータにコミットすることで,コーディングとコミットメントのプロセスをモジュール化する新たなアプローチを提案する。
得られたサンプルはより表現力が高く、より具体的な実装では、リードソロモンまたは低密度パリティチェック符号を用いた既存のDASスキームで実施された固定レート冗長コードから予めコミットされたシンボルをサンプリングすることよりも、データ可用性の保証を最大で複数の順序で得ることができる。
本稿では、ランダム線形ネットワーク符号化(RLNC)を用いて、このパラダイムを実現する具体的なプロトコルを提案する。
関連論文リスト
- KodCode: A Diverse, Challenging, and Verifiable Synthetic Dataset for Coding [49.56049319037421]
KodCodeは、高品質で検証可能なトレーニングデータを取得するという永続的な課題に対処する、合成データセットである。
自己検証手順によって体系的に検証される質問解決テスト三つ子を含む。
このパイプラインは大規模で堅牢で多様なコーディングデータセットを生成する。
論文 参考訳(メタデータ) (2025-03-04T19:17:36Z) - Decoding for Punctured Convolutional and Turbo Codes: A Deep Learning Solution for Protocols Compliance [22.85778198575678]
本稿では,Long Short-Term Memory(LSTM)をベースとしたデコードアーキテクチャを提案する。
提案手法は、句読解畳み込み符号とターボ符号を統一する。
句読点埋め込み機構は、句読点パターンを直接ネットワークに統合し、様々なコードレートへのシームレスな適応を可能にする。
論文 参考訳(メタデータ) (2025-02-21T14:00:14Z) - Threshold Selection for Iterative Decoding of $(v,w)$-regular Binary Codes [84.0257274213152]
繰り返しビットフリップデコーダは、sparse $(v,w)$-regular符号の効率的な選択である。
閉形式モデルに基づくしきい値決定のための具体的な基準を提案する。
論文 参考訳(メタデータ) (2025-01-23T17:38:22Z) - Error Correction Code Transformer: From Non-Unified to Unified [40.96008445182154]
従来のデコーダは、特定のデコードアルゴリズムに適した固定ハードウェア回路として設計されていた。
本稿では、複数の線形ブロックコードを扱うことができる、コードに依存しないトランスフォーマーベースのデコードアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-04T12:30:42Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - Coding-Based Hybrid Post-Quantum Cryptosystem for Non-Uniform Information [53.85237314348328]
我々は、新しいハイブリッドユニバーサルネットワーク符号化暗号(NU-HUNCC)を導入する。
NU-HUNCCは,リンクのサブセットにアクセス可能な盗聴者に対して,個別に情報理論的に保護されていることを示す。
論文 参考訳(メタデータ) (2024-02-13T12:12:39Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。