論文の概要: Optimal RANDAO Manipulation in Ethereum
- arxiv url: http://arxiv.org/abs/2409.19883v1
- Date: Mon, 30 Sep 2024 02:28:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 21:57:28.836408
- Title: Optimal RANDAO Manipulation in Ethereum
- Title(参考訳): EthereumにおけるRANDAOの最適操作
- Authors: Kaya Alpturer, S. Matthew Weinberg,
- Abstract要約: RANDAO操作は、敵がエポックの最後に割り当てられたスロットに割り当てられたプロポーサを制御した場合に可能である。
我々は、敵が所有する任意の分数$alpha$に対して、戦略的敵が提案できるラウンドの最大分数$f(alpha)$を計算する方法を提供する。
- 参考スコア(独自算出の注目度): 4.625489011466493
- License:
- Abstract: It is well-known that RANDAO manipulation is possible in Ethereum if an adversary controls the proposers assigned to the last slots in an epoch. We provide a methodology to compute, for any fraction $\alpha$ of stake owned by an adversary, the maximum fraction $f(\alpha)$ of rounds that a strategic adversary can propose. We further implement our methodology and compute $f(\cdot)$ for all $\alpha$. For example, we conclude that an optimal strategic participant with $5\%$ of the stake can propose a $5.048\%$ fraction of rounds, $10\%$ of the stake can propose a $10.19\%$ fraction of rounds, and $20\%$ of the stake can propose a $20.68\%$ fraction of rounds.
- Abstract(参考訳): 敵がエポックの最後のスロットに割り当てられたプロジェクタを制御する場合、EthereumではRANDAO操作が可能であることはよく知られている。
我々は、敵が所有する任意の分数$\alpha$に対して、戦略的敵が提案できるラウンドの最大分数$f(\alpha)$を計算する方法を提供する。
さらに我々の方法論を実装し、すべての$\alpha$に対して$f(\cdot)$を計算します。
例えば、$5\%の最適戦略参加者は$5.048\%のラウンドを、$10\%のラウンドを$10.19\%のラウンドを、$20\%のラウンドを$20.68\%のラウンドを提案できる。
関連論文リスト
- Context-lumpable stochastic bandits [49.024050919419366]
我々は、$S$コンテキストと$K$アクションによる文脈的盗賊問題を考える。
我々は,最大$widetilde O(r (S +K )/epsilon2)$サンプルを用いて,$epsilon$-optimal Policyを出力するアルゴリズムを提案する。
後悔の設定では、T$までの累積後悔を$widetilde O(sqrtr3(S+K)T)$で束縛するアルゴリズムを与える。
論文 参考訳(メタデータ) (2023-06-22T17:20:30Z) - Near-Minimax-Optimal Risk-Sensitive Reinforcement Learning with CVaR [58.40575099910538]
本研究は,リスク許容度が$tau$のCVaR(Conditional Value at Risk)の目的に着目し,リスクに敏感な強化学習(RL)について検討する。
ミニマックスCVaRの後悔率は$Omega(sqrttau-1AK)$で、$A$はアクションの数、$K$はエピソード数である。
我々は,このアルゴリズムが連続性仮定の下で$widetilde O(tau-1sqrtSAK)$の最適後悔を達成し,一般に近似することを示す。
論文 参考訳(メタデータ) (2023-02-07T02:22:31Z) - Forecasting Cryptocurrencies Log-Returns: a LASSO-VAR and Sentiment
Approach [0.0]
私たちは、TwitterとRedditの感情の予測力と、Google Trendsのインデックスとボリュームを活用して、10の暗号通貨のログリターンを予測する。
具体的には、$Bitcoin$, $Ethereum$, $Tether$, $Binance Coin$, $Litecoin$, $Enjin Coin$, $Horizen$, $Namecoin$, $Peercoin$, $Feathercoin$を考える。
論文 参考訳(メタデータ) (2022-09-22T14:26:32Z) - Provably Efficient Offline Multi-agent Reinforcement Learning via
Strategy-wise Bonus [48.34563955829649]
本稿では,共同戦略の信頼区間を構築する戦略的な集中原理を提案する。
2人のプレイヤーによるゼロサムマルコフゲームの場合、戦略的なボーナスの凸性を利用して効率的なアルゴリズムを提案する。
すべてのアルゴリズムは、指定済みの戦略クラスである$Pi$を入力として取り、最良の戦略に近い戦略を$Pi$で出力することができる。
論文 参考訳(メタデータ) (2022-06-01T00:18:15Z) - Complete Policy Regret Bounds for Tallying Bandits [51.039677652803675]
政策後悔は、適応的な敵に対してオンライン学習アルゴリズムのパフォーマンスを測定するという、よく確立された概念である。
我々は,不完全な政策後悔を効果的に最小化できる敵の制限について検討する。
我々は、$tildemathcalO(mKsqrtT)$の完全なポリシーを後悔するアルゴリズムを提供し、$tildemathcalO$表記は対数要素だけを隠す。
論文 参考訳(メタデータ) (2022-04-24T03:10:27Z) - Stochastic Strategic Patient Buyers: Revenue maximization using posted
prices [40.698164629357066]
我々は、意思決定を遅らせる能力を持つ買い手と対面する売り手について検討する。
各買い手の型は、価値と忍耐からなり、分布から標本化される。
我々は,販売者の最適な純粋戦略と,販売者の混合戦略に対する買い手の最良の対応戦略の両方を特徴付ける。
論文 参考訳(メタデータ) (2022-02-12T21:11:31Z) - Coordinated Attacks against Contextual Bandits: Fundamental Limits and
Defense Mechanisms [75.17357040707347]
オンラインレコメンデーションシステムによってモチベーションされた我々は,文脈的包帯における最適政策の発見問題を提案する。
目標は、優れたユーザに対する報酬を可能な限り少ないユーザインタラクションで最大化するポリシーを、しっかりと学習することだ。
効率的なロバストな平均推定器を用いることで、$tildeO(min(S,A)cdot alpha/epsilon2)$ upper-boundを実現できることを示す。
論文 参考訳(メタデータ) (2022-01-30T01:45:13Z) - A Bayesian Learning Algorithm for Unknown Zero-sum Stochastic Games with
an Arbitrary Opponent [9.094186120476174]
ゼロサムゲームのための後サンプリング強化学習(PSRL-ZSG)
ゼロサムゲームのための後サンプリング強化学習(PSRL-ZSG)を提案する。
論文 参考訳(メタデータ) (2021-09-08T02:05:40Z) - Finite Continuum-Armed Bandits [0.0]
エージェントが$T$Ressourcesを持ち、より多くのアクションに割り当てる状況を考える。
エージェントの目標は、彼女の累積報酬を最大化することです。
論文 参考訳(メタデータ) (2020-10-23T08:48:45Z) - Taking a hint: How to leverage loss predictors in contextual bandits? [63.546913998407405]
我々は,損失予測の助けを借りて,文脈的包帯における学習を研究する。
最適な後悔は$mathcalO(minsqrtT, sqrtmathcalETfrac13)$である。
論文 参考訳(メタデータ) (2020-03-04T07:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。