論文の概要: From Rules to Rewards: Reinforcement Learning for Interest Rate Adjustment in DeFi Lending
- arxiv url: http://arxiv.org/abs/2506.00505v1
- Date: Sat, 31 May 2025 10:56:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.109222
- Title: From Rules to Rewards: Reinforcement Learning for Interest Rate Adjustment in DeFi Lending
- Title(参考訳): ルールからリワードへ:DeFi貸出における金利調整のための強化学習
- Authors: Hanxiao Qu, Krzysztof Gogol, Florian Groetschla, Claudio Tessone,
- Abstract要約: 本研究は、オフライン強化学習を用いて、DeFi貸出プロトコルの金利調整を最適化する。
Aaveプロトコルの履歴データを用いて、保守的Q-Learning(CQL)、振舞いクローン(BC)、TD3-BCの3つのRLアプローチを評価する。
TD3-BCは、バランシング利用、資本安定、リスクにおいて優れた性能を示し、既存のモデルより優れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized Finance (DeFi) lending enables permissionless borrowing via smart contracts. However, it faces challenges in optimizing interest rates, mitigating bad debt, and improving capital efficiency. Rule-based interest-rate models struggle to adapt to dynamic market conditions, leading to inefficiencies. This work applies Offline Reinforcement Learning (RL) to optimize interest rate adjustments in DeFi lending protocols. Using historical data from Aave protocol, we evaluate three RL approaches: Conservative Q-Learning (CQL), Behavior Cloning (BC), and TD3 with Behavior Cloning (TD3-BC). TD3-BC demonstrates superior performance in balancing utilization, capital stability, and risk, outperforming existing models. It adapts effectively to historical stress events like the May 2021 crash and the March 2023 USDC depeg, showcasing potential for automated, real-time governance.
- Abstract(参考訳): 分散ファイナンス(DeFi)融資は、スマートコントラクトによる無許可借入を可能にする。
しかし、金利の最適化、不良債権の軽減、資本効率の向上といった課題に直面している。
ルールベースの利子レートモデルは、動的な市場条件に適応するのに苦労し、非効率に繋がる。
本研究は、DeFi貸出プロトコルの金利調整を最適化するためにオフライン強化学習(RL)を適用した。
Aaveプロトコルの履歴データを用いて、保守的なQ-Learning(CQL)、振舞いクローン(BC)、振舞いクローン(TD3-BC)の3つのRLアプローチを評価する。
TD3-BCは、バランシング利用、資本安定、リスクにおいて優れた性能を示し、既存のモデルより優れている。
2021年5月の衝突や2023年3月のUSDCデペグのような歴史的ストレスイベントに効果的に対応し、自動化されたリアルタイムガバナンスの可能性を示している。
関連論文リスト
- Addressing Data Quality Decompensation in Federated Learning via Dynamic Client Selection [7.603415982653868]
Shapley-Bid Reputation Optimated Federated Learning (SBRO-FL)は、動的入札、評判モデリング、コスト認識の選択を統合する統合フレームワークである。
予測理論にインスパイアされた評価システムは、矛盾を罰しながら歴史的なパフォーマンスを捉えている。
FashionMNIST, EMNIST, CIFAR-10, SVHNデータセットの実験により、SBRO-FLは対向的および低障壁干渉シナリオにおいても精度、収束速度、堅牢性を改善することが示された。
論文 参考訳(メタデータ) (2025-05-27T14:06:51Z) - Accelerating RL for LLM Reasoning with Optimal Advantage Regression [52.0792918455501]
本稿では,最適優位関数を直接近似する新しい2段階ポリシー最適化フレームワークを提案する。
A$*-POは、幅広い数学的推論ベンチマークで競合性能を達成する。
PPO、GRPO、REBELと比較して、トレーニング時間を最大2$times$、ピークメモリ使用率を30%以上削減する。
論文 参考訳(メタデータ) (2025-05-27T03:58:50Z) - FinTSB: A Comprehensive and Practical Benchmark for Financial Time Series Forecasting [58.70072722290475]
ファイナンシャル・タイム・シリーズ(FinTS)は、人間の脳を増強した意思決定の行動を記録する。
FinTSBは金融時系列予測のための総合的で実用的なベンチマークである。
論文 参考訳(メタデータ) (2025-02-26T05:19:16Z) - SPEQ: Offline Stabilization Phases for Efficient Q-Learning in High Update-To-Data Ratio Reinforcement Learning [51.10866035483686]
強化学習(RL)における高アップデート・トゥ・データ(UTD)比のアルゴリズムは、サンプル効率を改善するが、高い計算コストを伴い、現実世界のスケーラビリティを制限している。
我々は、低UTDオンライントレーニングと周期的オフライン安定化フェーズを組み合わせたRLアルゴリズムである、効率的なQ-Learningのためのオフライン安定化フェーズ(SPEQ)を提案する。
これらのフェーズでは、Q-関数は固定されたリプレイバッファ上で高いUTD比で微調整され、サブ最適データの冗長な更新が削減される。
論文 参考訳(メタデータ) (2025-01-15T09:04:19Z) - Deep Hedging with Market Impact [0.20482269513546458]
本稿では,Deep Reinforcement Learning(DRL)に基づく新しい市場インパクト動的ヘッジモデルを提案する。
DRLモデルから得られた最適ポリシーは、いくつかのオプションヘッジシミュレーションを用いて分析され、デルタヘッジのような一般的な手順と比較される。
論文 参考訳(メタデータ) (2024-02-20T19:08:24Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - Optimizing Credit Limit Adjustments Under Adversarial Goals Using
Reinforcement Learning [42.303733194571905]
我々は、強化学習技術を用いて最適なクレジットカード制限調整ポリシーを発見し、自動化することを模索する。
本研究は、信用限度調整に強化学習フレームワークを適用するための概念構造を確立する。
論文 参考訳(メタデータ) (2023-06-27T16:10:36Z) - Auto.gov: Learning-based Governance for Decentralized Finance (DeFi) [14.697580721893809]
Auto$.$gov"は学習ベースのガバナンスフレームワークで、深いQnetwork強化学習(RL)戦略を用いて、半自動化されたデータ駆動パラメータ調整を実行する。
実世界のデータを用いたテストでは、Auto$.$govはベンチマークアプローチを少なくとも14%上回り、静的ベースラインモデルは10倍に向上する。
論文 参考訳(メタデータ) (2023-02-19T12:11:41Z) - ConserWeightive Behavioral Cloning for Reliable Offline Reinforcement
Learning [27.322942155582687]
オフライン強化学習(RL)の目標は、静的なログ付きデータセットからほぼ最適なポリシを学ぶことで、高価なオンラインインタラクションをサイドステッピングすることにある。
行動クローン(BC)は、教師あり学習を通じてオフラインの軌跡を模倣することで、オフラインRLに対する簡単なソリューションを提供する。
オフラインRLにおける条件付きBCの性能を向上させるために,ConserWeightive Behavioral Cloning (CWBC)を提案する。
論文 参考訳(メタデータ) (2022-10-11T05:37:22Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。