論文の概要: Deep Reinforcement Learning-based Rebalancing Policies for Profit
Maximization of Relay Nodes in Payment Channel Networks
- arxiv url: http://arxiv.org/abs/2210.07302v1
- Date: Thu, 13 Oct 2022 19:11:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 18:25:06.215921
- Title: Deep Reinforcement Learning-based Rebalancing Policies for Profit
Maximization of Relay Nodes in Payment Channel Networks
- Title(参考訳): ディープ強化学習に基づくリバランシング政策による支払チャネルネットワークにおけるリレーノードの利益最大化
- Authors: Nikolaos Papadis, Leandros Tassiulas
- Abstract要約: 本研究では, 海底スワップの再バランス手法を用いて, リレーノードが手数料から利益を最大化する方法について検討した。
我々は,すべての再バランスポリシに対して時間とともにノードの運命の問題を定式化し,Deep Reinforcement Learningベースの再バランスポリシを設計することによって最適解を近似する。
- 参考スコア(独自算出の注目度): 7.168126766674749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Payment channel networks (PCNs) are a layer-2 blockchain scalability
solution, with its main entity, the payment channel, enabling transactions
between pairs of nodes "off-chain," thus reducing the burden on the layer-1
network. Nodes with multiple channels can serve as relays for multihop payments
over a path of channels: they relay payments of others by providing the
liquidity of their channels, in exchange for part of the amount withheld as a
fee. Relay nodes might after a while end up with one or more unbalanced
channels, and thus need to trigger a rebalancing operation. In this paper, we
study how a relay node can maximize its profits from fees by using the
rebalancing method of submarine swaps. We introduce a stochastic model to
capture the dynamics of a relay node observing random transaction arrivals and
performing occasional rebalancing operations, and express the system evolution
as a Markov Decision Process. We formulate the problem of the maximization of
the node's fortune over time over all rebalancing policies, and approximate the
optimal solution by designing a Deep Reinforcement Learning (DRL)-based
rebalancing policy. We build a discrete event simulator of the system and use
it to demonstrate the DRL policy's superior performance under most conditions
by conducting a comparative study of different policies and parameterizations.
In all, our approach aims to be the first to introduce DRL for network
optimization in the complex world of PCNs.
- Abstract(参考訳): ペイメントチャネルネットワーク(PCN)は、そのメインエンティティであるペイメントチャネルを備えたレイヤ2ブロックチェーンのスケーラビリティソリューションである。
複数のチャネルを持つノードは、チャネルの経路上でのマルチホップ支払いのリレーとして機能する: 料金として保持されていない金額と引き換えに、チャネルの流動性を提供することによって、他のチャネルの支払いを中継する。
リレーノードは、しばらくすると1つ以上のアンバランスなチャネルで終わるため、再バランス操作をトリガーする必要がある。
本稿では,潜水艦スワップの再バランス手法を用いて,リレーノードが手数料から利益を最大化する方法を検討する。
本稿では,ランダムなトランザクション到着を観測し,時折リバランシングを行うリレーノードのダイナミクスを捉える確率的モデルを導入し,マルコフ決定プロセスとしてシステム進化を表現する。
本稿では,すべての再バランスポリシに対してノードの占いの最大化の問題を定式化し,Deep Reinforcement Learning(DRL)に基づく再バランスポリシを設計することで最適解を近似する。
我々は,システムの個別イベントシミュレータを構築し,drlポリシーの優れた性能を示すために,異なるポリシーとパラメータ化の比較研究を行った。
提案手法は,PCNの複雑な世界において,ネットワーク最適化のためのDRLを初めて導入することを目的としている。
関連論文リスト
- Joint Combinatorial Node Selection and Resource Allocations in the Lightning Network using Attention-based Reinforcement Learning [0.0]
Lightning Network(LN)は、Bitcoinのスケーラビリティ問題に対する第2層ソリューションとして登場した。
本稿では,変換器のパワーによって強化されたDeep Reinforcement Learningフレームワークを提案する。
以上の結果から,LNの分散化目標と個人収益最大化インセンティブの対立が欠如しているだけでなく,両者の肯定的な関係が示唆された。
論文 参考訳(メタデータ) (2024-11-26T11:56:19Z) - Channel Balance Interpolation in the Lightning Network via Machine Learning [6.391448436169024]
Bitcoin Lightning Networkは、Bitcoinのスケーラビリティに対処するレイヤ2支払いプロトコルである。
本研究は、ネットワーク内のチャネルバランスを補間するために機械学習モデルを使用することの可能性を検討する。
論文 参考訳(メタデータ) (2024-05-20T14:57:16Z) - Relay Mining: Incentivizing Full Non-Validating Nodes Servicing All RPC Types [0.0]
リレーマイニング(Relay Mining)は、クライアントからサーバへのリモートプロシージャコール(RPC)のボリュームを推定し、証明する。
デジタル署名、コミット・アンド・リベラルスキーム、Sparse Merkle Sum Tries (SMSTs)を活用して、作業の量を証明する。
分散台帳上のネイティブ暗号は、アプリケーションを制限するために使われ、過剰使用を非インセンティブ化する。
論文 参考訳(メタデータ) (2023-05-18T03:23:41Z) - Entangled Pair Resource Allocation under Uncertain Fidelity Requirements [59.83361663430336]
量子ネットワークにおいて、効果的な絡み合いルーティングは、量子ソースと量子宛先ノード間の通信を容易にする。
本稿では,絡み合ったペアに対する資源配分モデルと,整合性保証を伴う絡み合ったルーティングモデルを提案する。
提案モデルでは, ベースラインモデルと比較して, 総コストを少なくとも20%削減できる。
論文 参考訳(メタデータ) (2023-04-10T07:16:51Z) - Fast and reliable entanglement distribution with quantum repeaters: principles for improving protocols using reinforcement learning [0.6249768559720122]
将来の量子技術は、空間的に分離されたノード間の共有絡み合いのネットワークに依存する。
ノードの線形連鎖に沿った絡み合い分布のための改良されたプロトコル/ポリティシを提供する。
論文 参考訳(メタデータ) (2023-03-01T19:05:32Z) - Learning Resilient Radio Resource Management Policies with Graph Neural
Networks [124.89036526192268]
我々は、ユーザ当たりの最小容量制約でレジリエントな無線リソース管理問題を定式化する。
有限個のパラメータ集合を用いてユーザ選択と電力制御ポリシーをパラメータ化できることを示す。
このような適応により,提案手法は平均レートと5番目のパーセンタイルレートとの良好なトレードオフを実現する。
論文 参考訳(メタデータ) (2022-03-07T19:40:39Z) - Edge Rewiring Goes Neural: Boosting Network Resilience via Policy
Gradient [62.660451283548724]
ResiNetは、さまざまな災害や攻撃に対する回復力のあるネットワークトポロジを発見するための強化学習フレームワークである。
ResiNetは複数のグラフに対してほぼ最適のレジリエンス向上を実現し,ユーティリティのバランスを保ちながら,既存のアプローチに比べて大きなマージンを持つことを示す。
論文 参考訳(メタデータ) (2021-10-18T06:14:28Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Operation-Aware Soft Channel Pruning using Differentiable Masks [51.04085547997066]
本稿では,データ駆動型アルゴリズムを提案する。このアルゴリズムは,操作特性を利用して,ディープニューラルネットワークを異なる方法で圧縮する。
我々は大規模な実験を行い、出力ネットワークの精度で優れた性能を達成する。
論文 参考訳(メタデータ) (2020-07-08T07:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。