論文の概要: Commit-Reveal$^2$: Securing Randomness Beacons with Randomized Reveal Order in Smart Contracts
- arxiv url: http://arxiv.org/abs/2504.03936v2
- Date: Wed, 17 Sep 2025 14:23:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 14:28:51.586688
- Title: Commit-Reveal$^2$: Securing Randomness Beacons with Randomized Reveal Order in Smart Contracts
- Title(参考訳): Commit-Reveal$^2$: スマートコントラクトにおけるランダム化されたReveal次数を持つランダムネスビーコンのセキュア化
- Authors: Suhyeon Lee, Euisin Gee, Najmeh Soroush, Muhammed Ali Bingol, Kaibin Huang,
- Abstract要約: 最終公開順序を暗号化的にランダム化するブロックチェーンデプロイメントのための層設計であるCommit-Reveal$2$を提示します。
このプロトコルはハイブリッドシステムとして設計されており、ルーチン調整が効率性のためにチェーンから外れている。
ブロックチェーンアプリケーションにおけるレプリケーションと採用をサポートするために、公に検証可能なプロトタイプと評価アーティファクトをリリースしています。
- 参考スコア(独自算出の注目度): 25.885166716453153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simple commit-reveal beacons are vulnerable to last-revealer strategies, and existing descriptions often leave accountability and recovery mechanisms unspecified for practical deployments. We present Commit-Reveal$^2$, a layered design for blockchain deployments that cryptographically randomizes the final reveal order, together with a concrete accountability and fallback mechanism that we implement as smart-contract logic. The protocol is architected as a hybrid system, where routine coordination runs off chain for efficiency and the blockchain acts as the trust anchor for commitments and the final arbiter for disputes. Our implementation covers leader coordination, on-chain verification, slashing for non-cooperation, and an explicit on-chain recovery path that maintains progress when off-chain coordination fails. We formally define two security goals for distributed randomness beacons, unpredictability and bit-wise bias resistance, and we show that Commit-Reveal$^2$ meets these notions under standard hash assumptions in the random-oracle model. In measurements with small to moderate operator sets, the hybrid design reduces on-chain gas by more than 80% compared to a fully on-chain baseline. We release a publicly verifiable prototype and evaluation artifacts to support replication and adoption in blockchain applications.
- Abstract(参考訳): 単純なコミット-リベラルビーコンは、ラストリベラー戦略に脆弱であり、既存の説明では、説明責任とリカバリメカニズムを、実際のデプロイメントに未特定のまま残していることが多い。
ブロックチェーンデプロイメントのためのレイヤ設計であるCommit-Reveal$^2$と、スマートコントラクトロジックとして実装した具体的な説明責任とフォールバックメカニズムについて、最終公開順序を暗号化的にランダム化する。
プロトコルはハイブリッドシステムとして設計されており、ルーチンの調整が効率のためにチェーンから外れ、ブロックチェーンはコミットメントのための信頼アンカーとして機能し、論争のための最終的なアービターとして機能する。
我々の実装では、リーダのコーディネーション、オンチェーンの検証、非協調のスラッシュ、オフチェーンのコーディネーションが失敗した場合の進捗を維持する明示的なオンチェーンリカバリパスがカバーされています。
分散ランダム性ビーコン,予測不可能性,ビット偏差抵抗の2つのセキュリティ目標を正式に定義し,Commit-Reveal$^2$がランダムオークルモデルにおける標準的なハッシュ仮定の下でこれらの概念を満たすことを示す。
小から中程度の演算子を用いた測定では、このハイブリッド設計は、完全なオンチェーンベースラインと比較して、オンチェーンガスを80%以上削減する。
ブロックチェーンアプリケーションにおけるレプリケーションと採用をサポートするために、公に検証可能なプロトタイプと評価アーティファクトをリリースしています。
関連論文リスト
- Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs [83.11815479874447]
本研究では,人間の認知における認知的分解と偏見に触発された新しいジェイルブレイク攻撃フレームワークを提案する。
我々は、悪意のあるプロンプトの複雑さと関連バイアスを減らし、認知的分解を用いて、プロンプトを再編成する。
また、従来の二分的成功または失敗のパラダイムを超越したランキングベースの有害度評価指標も導入する。
論文 参考訳(メタデータ) (2025-05-03T05:28:11Z) - Adversary-Augmented Simulation for Fairness Evaluation and Defense in Hyperledger Fabric [0.0]
本稿では,複数のプロトコルからなる分散システムに対する攻撃の分析に適した,逆モデルとシミュレーションフレームワークを提案する。
本モデルでは,対象プロトコルの仮定に基づいて,対戦行動の分類と制約を行う。
このフレームワークを適用して、Hyperledger Fabric(HF)ブロックチェーンネットワークの公平性特性を分析する。
論文 参考訳(メタデータ) (2025-04-17T08:17:27Z) - Hollow Victory: How Malicious Proposers Exploit Validator Incentives in Optimistic Rollup Dispute Games [2.88268082568407]
一般的なレイヤ2アプローチはOptimistic Rollupであり、ブロック提案の競合ゲームとして知られるメカニズムに依存している。
これらのシステムでは、バリケータはエラーを含むと信じているブロックに挑戦することができ、成功すれば、提案者の預金の一部を報酬として転送することができる。
我々は、このメカニズムの構造上の脆弱性を明らかにしている: バリデータには、論争の挑戦に勝ったとしても、適切な利益が与えられない可能性がある。
論文 参考訳(メタデータ) (2025-04-07T14:00:46Z) - Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - It Takes Two: A Peer-Prediction Solution for Blockchain Verifier's Dilemma [12.663727952216476]
我々は,分散検証ゲームのための一相ベイズ的真理機構の設計に向けて,ビザンチン・ローバストなピア予測フレームワークを開発する。
我々の研究は、ブロックチェーンのセキュリティと堅牢性を高める分散検証プロトコルのためのインセンティブ設計のフレームワークを提供する。
論文 参考訳(メタデータ) (2024-06-03T21:21:17Z) - Adversary-Augmented Simulation to evaluate fairness on HyperLedger Fabric [0.0]
本稿では, 敵の仮定, 目標, 能力といった概念に基づいて構築する。
古典的な分散システムモデルに基づいて、逆アクションの使用を分類し、制限する。
本研究の目的は,各種システムモデルにおけるプロトコルの特性に及ぼすこれらの許容行動の影響について検討することである。
論文 参考訳(メタデータ) (2024-03-21T12:20:36Z) - A Zero Trust Framework for Realization and Defense Against Generative AI
Attacks in Power Grid [62.91192307098067]
本稿では電力グリッドサプライチェーン(PGSC)のための新しいゼロ信頼フレームワークを提案する。
潜在的なGenAIによる攻撃ベクターの早期発見、テールリスクに基づく安定性の評価、そしてそのような脅威の緩和を容易にする。
実験の結果,ゼロ信頼フレームワークは攻撃ベクトル生成に95.7%の精度,95%安定PGSCに9.61%のリスク尺度,GenAIによる攻撃に対する防御に99%の信頼性が得られた。
論文 参考訳(メタデータ) (2024-03-11T02:47:21Z) - LookAhead: Preventing DeFi Attacks via Unveiling Adversarial Contracts [15.071155232677643]
分散型金融(DeFi)インシデントは、30億ドルを超える経済的損害をもたらした。
現在の検出ツールは、攻撃活動を効果的に識別する上で重大な課題に直面している。
本稿では,敵対的契約を公開することによって,DeFi攻撃を効果的に検出する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-14T11:39:33Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Kick Bad Guys Out! Conditionally Activated Anomaly Detection in Federated Learning with Zero-Knowledge Proof Verification [22.078088272837068]
フェデレートラーニング(FL)システムは、モデル中毒やバックドア攻撃などの敵攻撃に対して脆弱である。
本研究では,実用FLシナリオに特化して設計された新しい異常検出手法を提案する。
本手法では,2段階の条件付き検出機構を用いる。
論文 参考訳(メタデータ) (2023-10-06T07:09:05Z) - Collaborative Learning Framework to Detect Attacks in Transactions and Smart Contracts [26.70294159598272]
本稿では、ブロックチェーントランザクションとスマートコントラクトの攻撃を検出するために設計された、新しい協調学習フレームワークを提案する。
当社のフレームワークは,マシンコードレベルでの複雑な攻撃を含む,さまざまな種類のブロックチェーン攻撃を分類する機能を示している。
我々のフレームワークは、広範囲なシミュレーションによって約94%の精度を達成し、リアルタイム実験では91%のスループットで毎秒2,150トランザクションを処理している。
論文 参考訳(メタデータ) (2023-08-30T07:17:20Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。