論文の概要: Incentive Non-Compatibility of Optimistic Rollups
- arxiv url: http://arxiv.org/abs/2312.01549v2
- Date: Mon, 5 Feb 2024 22:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 13:15:35.005906
- Title: Incentive Non-Compatibility of Optimistic Rollups
- Title(参考訳): 最適ロールアップのインセンティブ非適合性
- Authors: Daji Landis,
- Abstract要約: 楽観的なロールアップのモデルを提示し、インセンティブがプレイヤーの期待する行動と必ずしも一致していないことを示唆する。
我々のモデルに照らされた潜在的な解決策について議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimistic rollups are a popular and promising method of increasing the throughput capacity of their underlying chain. These methods rely on economic incentives to guarantee their security. We present a model of optimistic rollups that suggests that the incentives are not necessarily aligned with the expected behavior of the players, thus potentially undermining the security of existing optimistic rollups. We discuss some potential solutions illuminated by our model.
- Abstract(参考訳): 最適化ロールアップ(Optimistic rollups)は、その基盤となるチェーンのスループットを向上する、人気があり有望な方法である。
これらの方法は、彼らの安全を保証するための経済的なインセンティブに依存している。
楽観的なロールアップのモデルは、インセンティブがプレイヤーの期待する行動と必ずしも一致していないことを示唆し、既存の楽観的なロールアップのセキュリティを損なう可能性がある。
我々のモデルに照らされた潜在的な解決策について議論する。
関連論文リスト
- Overcoming Reward Overoptimization via Adversarial Policy Optimization
with Lightweight Uncertainty Estimation [50.0151082930949]
AdvPO(Adversarial Policy Optimization)は、人間からの強化学習における報酬過度最適化の問題に対する新しい解決策である。
本稿では,報酬モデルの最後の層埋め込みにのみ依存して,報酬の不確実性を定量化する軽量な手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:20:12Z) - Reward Bound for Behavioral Guarantee of Model-based Planning Agents [3.326392645107372]
我々は、モデルベースの計画エージェントが特定の将来のステップで目標状態に達することを保証することに重点を置いている。
例えば、その報酬がその上限以下であれば、そのような保証を得ることは不可能である。
論文 参考訳(メタデータ) (2024-02-20T23:17:07Z) - Interactive Learning with Pricing for Optimal and Stable Allocations in
Markets [12.580391999838128]
大規模オンラインレコメンデーションシステムは、ユーザのフィードバックから好みを学習しながら、競合するユーザ間で限られた数のアイテムの割り当てを容易にする必要がある。
我々のフレームワークは、報酬を楽観的に最大化するアロケーションを探索することで、レコメンデーションの品質を高める。
不安定性を最小限に抑えるため、推薦されたアロケーションから逸脱するユーザのインセンティブを測定するため、アルゴリズムはWalrasian equilibriaから派生したスキームに基づいてアイテムを価格設定する。
本手法は, 帯域幅, 最適資源配分, 協調フィルタリングの手法を統合し, サブリニアな社会福祉の後悔と, サブリニアな不安定性を実現するアルゴリズムを得るための最初の手法である。
論文 参考訳(メタデータ) (2022-12-13T20:33:54Z) - Incentive-Aware Recommender Systems in Two-Sided Markets [69.11586678637816]
エージェントのインセンティブを尊重する新しい推薦システムを提案する。
両政策は, エージェントが過度の暴露から保護される, ポストフェアネス基準を満たすことを示す。
論文 参考訳(メタデータ) (2022-11-23T22:20:12Z) - Latent State Marginalization as a Low-cost Approach for Improving
Exploration [79.12247903178934]
我々はMaxEntフレームワークにおける潜在変数ポリシーの採用を提案する。
我々は、潜在変数ポリシーが、潜在信念状態を持つ世界モデルの下で自然に現れることを示す。
提案手法を連続制御タスクに対して実験的に検証し, 有効限界化がよりよい探索とより堅牢な訓練につながることを示した。
論文 参考訳(メタデータ) (2022-10-03T15:09:12Z) - Constrained Policy Optimization via Bayesian World Models [79.0077602277004]
LAMBDAは、マルコフ決定プロセスを通じてモデル化された安全クリティカルタスクにおけるポリシー最適化のためのモデルに基づくアプローチである。
LAMBDA のSafety-Gymベンチマークスイートにおける技術性能について,サンプル効率と制約違反の観点から示す。
論文 参考訳(メタデータ) (2022-01-24T17:02:22Z) - Deceptive Decision-Making Under Uncertainty [25.197098169762356]
タスクを遂行しながら,外部の観察者の意図を判断できる自律エージェントの設計について検討する。
エージェントの動作をマルコフ決定プロセスとしてモデル化することにより、エージェントが複数の潜在的な目標を達成するための設定を考える。
本稿では,最大エントロピーの原理に基づいて観測者予測をモデル化し,認識戦略を効率的に生成する手法を提案する。
論文 参考訳(メタデータ) (2021-09-14T14:56:23Z) - Robust Risk-Aware Reinforcement Learning [0.0]
本稿では、リスク認識性能基準の堅牢な最適化のための強化学習(RL)手法を提案する。
ランク依存予測ユーティリティ(RDEU)を用いて政策の価値を評価する。
モデル不確実性に対する最適ポリシーを確固たるものにするために、我々は、その分布ではなく、ワッサーシュタイン球の内部にある最悪の分布によってポリシーを評価する。
論文 参考訳(メタデータ) (2021-08-23T20:56:34Z) - Policy Gradient Bayesian Robust Optimization for Imitation Learning [49.881386773269746]
我々は、期待される性能とリスクのバランスをとるために、新しいポリシー勾配スタイルのロバスト最適化手法PG-BROILを導出する。
その結果,PG-BROILはリスクニュートラルからリスク・アバースまでの行動のファミリを創出できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-11T16:49:15Z) - Latent Unexpected Recommendations [89.2011481379093]
ユーザとアイテムの埋め込みの潜伏した空間における予測性をモデル化し、新しいレコメンデーションと歴史的購入の間の隠れた複雑な関係を捉えることを提案する。
さらに,ハイブリッドユーティリティ機能の構築と,提案モデルに基づく予期せぬ推薦を行うための新しい潜在クロージャ(LC)手法を開発した。
論文 参考訳(メタデータ) (2020-07-27T02:39:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。