論文の概要: Survey on Strategic Mining in Blockchain: A Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2502.17307v1
- Date: Mon, 24 Feb 2025 16:42:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:51:41.810617
- Title: Survey on Strategic Mining in Blockchain: A Reinforcement Learning Approach
- Title(参考訳): ブロックチェーンにおける戦略的マイニングに関する調査:強化学習アプローチ
- Authors: Jichen Li, Lijia Xie, Hanting Huang, Bo Zhou, Binfeng Song, Wanying Zeng, Xiaotie Deng, Xiao Zhang,
- Abstract要約: 利己的なマイニングのような戦略的マイニング攻撃は、報酬を最大化するために正直な行動から逸脱することでブロックチェーンコンセンサスプロトコルを活用する。
強化学習(RL)は、複雑な動的環境において適応的な戦略最適化を可能にするスケーラブルな代替手段を提供する。
この調査は、プロトコル設計、脅威検出、セキュリティ分析など、利己的なマイニングの課題に対処するRLの可能性を強調している。
- 参考スコア(独自算出の注目度): 8.119190256503433
- License:
- Abstract: Strategic mining attacks, such as selfish mining, exploit blockchain consensus protocols by deviating from honest behavior to maximize rewards. Markov Decision Process (MDP) analysis faces scalability challenges in modern digital economics, including blockchain. To address these limitations, reinforcement learning (RL) provides a scalable alternative, enabling adaptive strategy optimization in complex dynamic environments. In this survey, we examine RL's role in strategic mining analysis, comparing it to MDP-based approaches. We begin by reviewing foundational MDP models and their limitations, before exploring RL frameworks that can learn near-optimal strategies across various protocols. Building on this analysis, we compare RL techniques and their effectiveness in deriving security thresholds, such as the minimum attacker power required for profitable attacks. Expanding the discussion further, we classify consensus protocols and propose open challenges, such as multi-agent dynamics and real-world validation. This survey highlights the potential of reinforcement learning (RL) to address the challenges of selfish mining, including protocol design, threat detection, and security analysis, while offering a strategic roadmap for researchers in decentralized systems and AI-driven analytics.
- Abstract(参考訳): 利己的なマイニングのような戦略的マイニング攻撃は、報酬を最大化するために正直な行動から逸脱することでブロックチェーンコンセンサスプロトコルを活用する。
Markov Decision Process (MDP)分析は、ブロックチェーンを含む現代のデジタル経済学におけるスケーラビリティ上の課題に直面している。
これらの制限に対処するため、強化学習(RL)は、複雑な動的環境において適応的な戦略最適化を可能にするスケーラブルな代替手段を提供する。
本研究では, 戦略的鉱業分析におけるRLの役割を, MDPに基づくアプローチと比較した。
基礎となるMDPモデルとその制限をレビューし、様々なプロトコルをまたいだ準最適戦略を学習できるRLフレームワークを探索する。
この分析に基づいて、RL手法とセキュリティ閾値の導出における有効性(例えば、有益攻撃に必要な最小攻撃力など)を比較した。
さらに議論を拡大し、コンセンサスプロトコルを分類し、マルチエージェントダイナミクスや実世界の検証といったオープンな課題を提案する。
この調査は、プロトコル設計、脅威検出、セキュリティ分析など、自己中心的なマイニングの課題に対処する上で、強化学習(RL)の可能性を強調し、分散システムとAI駆動分析の研究者に戦略的ロードマップを提供する。
関連論文リスト
- EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
EPOはオープンなアクション空間で戦略を提供し、任意のLLMエージェントにプラグインすることで、ゴール指向の振る舞いを動機付けることができる。
社会的および物理的領域にわたる実験は、EPOの長期的なゴールアライメント能力を示す。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - Blockchain-assisted Demonstration Cloning for Multi-Agent Deep Reinforcement Learning [15.605693371392212]
MDRL(Multi-Agent Deep Reinforcement Learning)は、エージェントが協調的または競争的な環境で複雑な行動を学習する、有望な研究分野である。
近年のフェデレーション強化学習(FRL)の取り組みは,モデル制約や悪意に関わる問題に悩まされている。
本稿では,MDRLのための新しい多機能デモクローニング(MEDC)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-19T04:20:24Z) - Co-Activation Graph Analysis of Safety-Verified and Explainable Deep Reinforcement Learning Policies [5.923818043882103]
深層強化学習(RL)ポリシーは、安全でない振る舞いを示し、解釈するのが困難である。
我々は、RLポリシーモデルチェックとコアクティベーショングラフ分析を組み合わせる。
この組み合わせにより、安全な意思決定のために、RLポリシーの内部動作を解釈することができます。
論文 参考訳(メタデータ) (2025-01-06T17:07:44Z) - A Comprehensive Survey of Reinforcement Learning: From Algorithms to Practical Challenges [2.2448567386846916]
強化学習(RL)は人工知能(AI)の強力なパラダイムとして登場した。
本稿では,多種多様なアルゴリズムを巧みに分析するRLの包括的調査を行う。
我々は、RLアルゴリズムの選択と実装に関する実践的な洞察を提供し、収束、安定性、探索-探索ジレンマといった共通の課題に対処する。
論文 参考訳(メタデータ) (2024-11-28T03:53:14Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Secrets of RLHF in Large Language Models Part I: PPO [81.01936993929127]
大規模言語モデル (LLMs) は、人工知能の進歩のためのブループリントを定式化した。
人間のフィードバックによる強化学習(RLHF)がこの追求を支える重要な技術パラダイムとして出現する。
本稿では、RLHFの枠組みを解明し、PPOの内部構造を再評価し、PPOアルゴリズムを構成する部分が政策エージェントの訓練にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2023-07-11T01:55:24Z) - Beyond CAGE: Investigating Generalization of Learned Autonomous Network
Defense Policies [0.8785883427835897]
本研究は,CAGEチャレンジの第2版で実施された強化学習アプローチを評価する。
アンサンブルRL技術は,我々の他のモデルより優れ,競争において第2位である。
目に見えない環境では、我々のアプローチはすべて悪化し、環境の変化のタイプによって様々な劣化が生じます。
論文 参考訳(メタデータ) (2022-11-28T17:01:24Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Strategic Decision-Making in the Presence of Information Asymmetry:
Provably Efficient RL with Algorithmic Instruments [55.41685740015095]
我々は,戦略MDPと呼ばれる新しいモデルの下で,オフライン強化学習について検討する。
アルゴリズムiNstruments(PLAN)を用いたペシミスティックポリシー学習法を提案する。
論文 参考訳(メタデータ) (2022-08-23T15:32:44Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。