論文の概要: Auto.gov: Learning-based On-chain Governance for Decentralized Finance
(DeFi)
- arxiv url: http://arxiv.org/abs/2302.09551v1
- Date: Sun, 19 Feb 2023 12:11:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 18:01:40.809101
- Title: Auto.gov: Learning-based On-chain Governance for Decentralized Finance
(DeFi)
- Title(参考訳): auto.gov: 分散金融(defi)のための学習に基づくオンチェーンガバナンス
- Authors: Jiahua Xu, Daniel Perez, Yebo Feng, Benjamin Livshits
- Abstract要約: 深層Qネットワーク強化学習を用いた半自動パラメータ調整手法を提案する。
我々のシステムは、データ駆動の正当化でこれらのパラメータを調整するために、直感的なガバナンス提案を自動的に生成する。
評価結果は,既存の手動アプローチよりも,学習ベースのオンチェーンガバナンス手法の方が反応性が高く,客観的で効率的であることを示す。
- 参考スコア(独自算出の注目度): 18.849149890999687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized finance (DeFi) has seen a tremendous increase in interest in
the past years with many types of protocols, such as lending protocols or
automated market-makers (AMMs) These protocols are typically controlled using
off-chain governance, where token holders can vote to modify different
parameters of the protocol. Up till now, however, choosing these parameters has
been a manual process, typically done by the core team behind the protocol. In
this work, we model a DeFi environment and propose a semi-automatic parameter
adjustment approach with deep Q-network (DQN) reinforcement learning. Our
system automatically generates intuitive governance proposals to adjust these
parameters with data-driven justifications. Our evaluation results demonstrate
that a learning-based on-chain governance procedure is more reactive,
objective, and efficient than the existing manual approach.
- Abstract(参考訳): 分散ファイナンス(defi)は、貸出プロトコルや自動化マーケットメーカ(amm)など、多くの種類のプロトコルで、ここ数年で大きな関心を集めている。 これらのプロトコルは通常、オフチェーンガバナンスを使用して制御され、トークンホルダが投票してプロトコルのさまざまなパラメータを変更することができる。
しかしこれまでは、これらのパラメータの選択は、通常はプロトコルの背後にあるコアチームが行う手動のプロセスだった。
本研究では,DeFi環境をモデル化し,深層Q-network(DQN)強化学習を用いた半自動パラメータ調整手法を提案する。
我々のシステムは、データ駆動の正当化でこれらのパラメータを調整するために、直感的なガバナンス提案を自動的に生成する。
評価の結果,学習に基づくオンチェーンガバナンス手順は,既存の手動アプローチよりも反応性,客観的,効率的であることが判明した。
関連論文リスト
- Improving DeFi Accessibility through Efficient Liquidity Provisioning with Deep Reinforcement Learning [0.3376269351435395]
本稿では,DeFiプロトコルにおける流動性提供を最適化するために,深層強化学習(DRL)を適用した。
より効率的な流動性管理を促進することで、この取り組みはDeFi市場をよりアクセスしやすくし、幅広い参加者を包括的にすることを目的としている。
論文 参考訳(メタデータ) (2025-01-13T17:27:11Z) - Towards Autonomous Cybersecurity: An Intelligent AutoML Framework for Autonomous Intrusion Detection [21.003217781832923]
本稿では,次世代ネットワークにおける自律型サイバーセキュリティの実現に向けた,自動機械学習(AutoML)に基づく自律型IDSフレームワークを提案する。
提案されたAutoMLベースのIDSは、CICIDS 2017と5G-NIDDという2つの公開ベンチマークネットワークセキュリティデータセットで評価された。
この研究は、次世代ネットワークにおける完全自律型サイバーセキュリティへの重要な一歩であり、ネットワークセキュリティアプリケーションに革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-09-05T00:36:23Z) - Poisoning Attacks on Federated Learning-based Wireless Traffic Prediction [4.968718867282096]
Federated Learning (FL)は、複数の基地局でグローバルコントロールモデルをトレーニングするための分散フレームワークを提供する。
これは、無線トラフィック予測(WTP)のようなアプリケーションにとって理想的であり、ネットワークリソースの最適化において重要な役割を果たす。
FLベースの分散無線システムのセキュリティ面、特に回帰ベースのWTP問題については、その約束にもかかわらず、不適切な調査が続けられている。
論文 参考訳(メタデータ) (2024-04-22T17:50:27Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - MOTO: Offline Pre-training to Online Fine-tuning for Model-based Robot
Learning [52.101643259906915]
本研究では,高次元観測による強化学習におけるオフライン事前学習とオンラインファインチューニングの問題について検討する。
既存のモデルベースオフラインRL法は高次元領域におけるオフラインからオンラインへの微調整には適していない。
本稿では,事前データをモデルベース値拡張とポリシー正則化によって効率的に再利用できるオンラインモデルベース手法を提案する。
論文 参考訳(メタデータ) (2024-01-06T21:04:31Z) - Fully Decentralized Model-based Policy Optimization for Networked
Systems [23.46407780093797]
本研究の目的は,モデルベース学習によるマルチエージェント制御のデータ効率の向上である。
エージェントが協力的であり、隣人とのみローカルに通信するネットワークシステムについて検討する。
提案手法では,各エージェントが将来の状態を予測し,通信によって予測をブロードキャストする動的モデルを学習し,その後,モデルロールアウトに基づいてポリシーをトレーニングする。
論文 参考訳(メタデータ) (2022-07-13T23:52:14Z) - On Effective Scheduling of Model-based Reinforcement Learning [53.027698625496015]
実データ比率を自動的にスケジュールするAutoMBPOというフレームワークを提案する。
本稿ではまず,政策訓練における実データの役割を理論的に分析し,実際のデータの比率を徐々に高めれば,より優れた性能が得られることを示唆する。
論文 参考訳(メタデータ) (2021-11-16T15:24:59Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Federated Learning on the Road: Autonomous Controller Design for
Connected and Autonomous Vehicles [109.71532364079711]
CAV(コネクテッド・アンド・自律車両)の自律制御設計のための新しい統合学習(FL)フレームワークの提案
CAVの移動性、無線フェーディングチャネル、および不均衡で非独立で同一に分散されたデータを考慮に入れた新しい動的フェデレーション・プロキシ(DFP)アルゴリズムが提案されている。
最適制御器を用いてCAVがどの程度の速度で収束するかを同定するために,提案アルゴリズムに対して厳密な収束解析を行う。
論文 参考訳(メタデータ) (2021-02-05T19:57:47Z) - Regulation conform DLT-operable payment adapter based on trustless -
justified trust combined generalized state channels [77.34726150561087]
物の経済(EoT)は、ピアツーピアの信頼性のないネットワークで動作するソフトウェアエージェントに基づいています。
基本的価値と技術的可能性が異なる現在のソリューションの概要を述べる。
我々は,暗号ベースの分散型の信頼できない要素の強みと,確立された,十分に規制された支払い手段を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-07-03T10:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。