論文の概要: From Indexing to Coding: A New Paradigm for Data Availability Sampling
- arxiv url: http://arxiv.org/abs/2509.21586v1
- Date: Thu, 25 Sep 2025 20:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.016336
- Title: From Indexing to Coding: A New Paradigm for Data Availability Sampling
- Title(参考訳): インデックスからコーディングへ - データアベイラビリティサンプリングのための新しいパラダイム
- Authors: Moritz Grundei, Aayush Rajasekaran, Kishori Konwar, Muriel Medard,
- Abstract要約: 我々はDASに新たなアプローチを導入し、オンザフライコーディングによるサンプリングを行いながら、未コーディングデータにコミットすることで、コーディングとコミットメントのプロセスをモジュール化する。
結果として得られたサンプルははるかに表現力が高く、光ノードは具体的実装において、データの可用性の保証を最大で複数の順序で得ることができる。
- 参考スコア(独自算出の注目度): 0.37331950863394864
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The data availability problem is a central challenge in blockchain systems and lies at the core of the accessibility and scalability issues faced by platforms such as Ethereum. Modern solutions employ several approaches, with data availability sampling (DAS) being the most self-sufficient and minimalistic in its security assumptions. Existing DAS methods typically form cryptographic commitments on codewords of fixed-rate erasure codes, which restrict light nodes to sampling from a predetermined set of coded symbols. In this paper, we introduce a new approach to DAS that modularizes the coding and commitment process by committing to the uncoded data while performing sampling through on-the-fly coding. The resulting samples are significantly more expressive, enabling light nodes to obtain, in concrete implementations, up to multiple orders of magnitude stronger assurances of data availability than from sampling pre-committed symbols from a fixed-rate redundancy code as done in established DAS schemes using Reed Solomon or low density parity check codes. We present a concrete protocol that realizes this paradigm using random linear network coding (RLNC).
- Abstract(参考訳): データ可用性問題は、ブロックチェーンシステムにおける中心的な課題であり、Ethereumのようなプラットフォームが直面しているアクセシビリティとスケーラビリティの問題の中核にある。
現代のソリューションはいくつかのアプローチを採用しており、データ可用性サンプリング(DAS)はセキュリティ上の前提において最も自己充足的で最小限のものである。
既存のDASメソッドは通常、固定レート消去符号のコードワードに暗号的なコミットメントを形成し、光ノードが所定の符号付きシンボルのセットからサンプリングすることを制限する。
本稿では,DASに対して,オンザフライコーディングによるサンプリングを行いながら,未コーディングデータにコミットすることで,コーディングとコミットメントのプロセスをモジュール化する新たなアプローチを提案する。
得られたサンプルはより表現力が高く、より具体的な実装では、リードソロモンまたは低密度パリティチェック符号を用いた既存のDASスキームで実施された固定レート冗長コードから予めコミットされたシンボルをサンプリングすることよりも、データ可用性の保証を最大で複数の順序で得ることができる。
本稿では、ランダム線形ネットワーク符号化(RLNC)を用いて、このパラダイムを実現する具体的なプロトコルを提案する。
関連論文リスト
- Overcoming Joint Intractability with Lossless Hierarchical Speculative Decoding [58.92526489742584]
我々は無益な無益な提案をする。
承認されたトークンの数を大幅に増加させる検証方法。
HSDは様々なモデルファミリやベンチマークの受け入れ率に一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2026-01-09T11:10:29Z) - From Bits to Rounds: Parallel Decoding with Exploration for Diffusion Language Models [19.97248408121574]
Diffusion Language Models (DLMs) は並列デコードにより高速な推論速度で同等の精度を提供する。
高信頼トークンは無視可能な情報を持ち、それらに厳密に依存することで、各デコードラウンドにおける効果的な進捗を制限する。
本研究では,情報スループットと復号効率を最大化する学習自由復号法であるExplore-Then-Exploit (ETE)を提案する。
論文 参考訳(メタデータ) (2025-11-26T06:38:37Z) - Beyond Next Token Probabilities: Learnable, Fast Detection of Hallucinations and Data Contamination on LLM Output Distributions [60.43398881149664]
LLM出力シグナチャの効率的な符号化を訓練した軽量アテンションベースアーキテクチャであるLOS-Netを紹介する。
非常に低い検出レイテンシを維持しながら、さまざまなベンチマークやLLMで優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-03-18T09:04:37Z) - KodCode: A Diverse, Challenging, and Verifiable Synthetic Dataset for Coding [49.56049319037421]
KodCodeは、高品質で検証可能なトレーニングデータを取得するという永続的な課題に対処する、合成データセットである。
自己検証手順によって体系的に検証される質問解決テスト三つ子を含む。
このパイプラインは大規模で堅牢で多様なコーディングデータセットを生成する。
論文 参考訳(メタデータ) (2025-03-04T19:17:36Z) - Decoding for Punctured Convolutional and Turbo Codes: A Deep Learning Solution for Protocols Compliance [22.85778198575678]
本稿では,Long Short-Term Memory(LSTM)をベースとしたデコードアーキテクチャを提案する。
提案手法は、句読解畳み込み符号とターボ符号を統一する。
句読点埋め込み機構は、句読点パターンを直接ネットワークに統合し、様々なコードレートへのシームレスな適応を可能にする。
論文 参考訳(メタデータ) (2025-02-21T14:00:14Z) - Threshold Selection for Iterative Decoding of $(v,w)$-regular Binary Codes [84.0257274213152]
繰り返しビットフリップデコーダは、sparse $(v,w)$-regular符号の効率的な選択である。
閉形式モデルに基づくしきい値決定のための具体的な基準を提案する。
論文 参考訳(メタデータ) (2025-01-23T17:38:22Z) - Error Correction Code Transformer: From Non-Unified to Unified [40.96008445182154]
従来のデコーダは、特定のデコードアルゴリズムに適した固定ハードウェア回路として設計されていた。
本稿では、複数の線形ブロックコードを扱うことができる、コードに依存しないトランスフォーマーベースのデコードアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-04T12:30:42Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - Coding-Based Hybrid Post-Quantum Cryptosystem for Non-Uniform Information [53.85237314348328]
我々は、新しいハイブリッドユニバーサルネットワーク符号化暗号(NU-HUNCC)を導入する。
NU-HUNCCは,リンクのサブセットにアクセス可能な盗聴者に対して,個別に情報理論的に保護されていることを示す。
論文 参考訳(メタデータ) (2024-02-13T12:12:39Z) - DoDo-Code: an Efficient Levenshtein Distance Embedding-based Code for 4-ary IDS Channel [8.092763074723594]
深部レベンシュテイン距離埋め込みによる高速単一IDS訂正符号を設計するための新しい手法を提案する。
深層学習モデルを用いて、シークエンスを埋め込みベクトルに投影し、元のシークエンス間のレヴェンシュテイン距離を保存する。
この埋め込み空間は、コードワード検索とセグメント修正のためのアルゴリズムを開発する複雑なLevenshteinドメインのプロキシとして機能する。
論文 参考訳(メタデータ) (2023-12-20T02:22:54Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z) - A Learning-Based Approach to Address Complexity-Reliability Tradeoff in
OS Decoders [32.35297363281744]
本稿では,人工ニューラルネットワークを用いて順序統計に基づくデコーダの必要な順序を予測することで,平均的複雑性やデコーダの遅延を低減できることを示した。
論文 参考訳(メタデータ) (2021-03-05T18:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。