論文の概要: Stochastic Delay Differential Games: Financial Modeling and Machine
Learning Algorithms
- arxiv url: http://arxiv.org/abs/2307.06450v1
- Date: Wed, 12 Jul 2023 21:02:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 16:27:03.768306
- Title: Stochastic Delay Differential Games: Financial Modeling and Machine
Learning Algorithms
- Title(参考訳): 確率的遅延微分ゲーム:金融モデリングと機械学習アルゴリズム
- Authors: Robert Balkin and Hector D. Ceniceros and Ruimeng Hu
- Abstract要約: 深層学習による遅延差分ゲームの閉ループナッシュ平衡を求める数値手法を提案する。
これらのゲームは、マルチエージェント相互作用と遅延効果がモデルでしばしば望まれる特徴である金融と経済学で広く使われている。
- 参考スコア(独自算出の注目度): 3.222802562733787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a numerical methodology for finding the closed-loop
Nash equilibrium of stochastic delay differential games through deep learning.
These games are prevalent in finance and economics where multi-agent
interaction and delayed effects are often desired features in a model, but are
introduced at the expense of increased dimensionality of the problem. This
increased dimensionality is especially significant as that arising from the
number of players is coupled with the potential infinite dimensionality caused
by the delay. Our approach involves parameterizing the controls of each player
using distinct recurrent neural networks. These recurrent neural network-based
controls are then trained using a modified version of Brown's fictitious play,
incorporating deep learning techniques. To evaluate the effectiveness of our
methodology, we test it on finance-related problems with known solutions.
Furthermore, we also develop new problems and derive their analytical Nash
equilibrium solutions, which serve as additional benchmarks for assessing the
performance of our proposed deep learning approach.
- Abstract(参考訳): 本稿では,ディープラーニングによる確率遅延差分ゲームにおける閉ループナッシュ平衡を求める数値手法を提案する。
これらのゲームは金融や経済学において一般的であり、マルチエージェント相互作用や遅延効果はモデルにおいてしばしば望ましい特徴であるが、問題の次元性の向上を犠牲にして導入される。
この次元の増大は、プレイヤー数から生じる次元が遅延によって引き起こされる潜在的無限次元と結合されることで特に重要である。
我々のアプローチは、異なるリカレントニューラルネットワークを使用して各プレイヤーの制御をパラメータ化する。
これらの繰り返しニューラルネットワークベースの制御は、深層学習技術を取り入れたブラウンの架空の遊びの修正版を使用して訓練される。
提案手法の有効性を評価するため,既知解を用いた金融関連問題に対して検証を行った。
さらに,新しい問題を開発し,その解析的nash平衡解を導出し,提案する深層学習手法の性能評価のための追加ベンチマークを行う。
関連論文リスト
- Deep multitask neural networks for solving some stochastic optimal
control problems [0.0]
本稿では,最適制御問題のクラスについて考察し,ニューラルネットワークを用いた効果的な解法を提案する。
マルチタスクニューラルネットワークをトレーニングするために,タスク間の学習を動的にバランスさせる新しいスキームを導入する。
実世界のデリバティブ価格問題に関する数値実験を通じて,本手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-01-23T17:20:48Z) - Recent Developments in Machine Learning Methods for Stochastic Control
and Games [3.3993877661368757]
近年,制御問題やゲームを解決するため,機械学習に基づく計算手法が開発されている。
我々は,高次元や構造が非常に複雑である場合においても,そのような問題を解く可能性を解き明かした深層学習手法に焦点をあてる。
本稿では,これらの手法について紹介し,機械学習と制御とゲームのクロスロードにおける最先端の成果を要約する。
論文 参考訳(メタデータ) (2023-03-17T21:53:07Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Interfacing Finite Elements with Deep Neural Operators for Fast
Multiscale Modeling of Mechanics Problems [4.280301926296439]
本研究では,機械学習を用いたマルチスケールモデリングのアイデアを探求し,高コストソルバの効率的なサロゲートとしてニューラル演算子DeepONetを用いる。
DeepONetは、きめ細かい解法から取得したデータを使って、基礎とおそらく未知のスケールのダイナミクスを学習してオフラインでトレーニングされている。
精度とスピードアップを評価するための様々なベンチマークを提示し、特に時間依存問題に対する結合アルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-25T20:46:08Z) - FFNB: Forgetting-Free Neural Blocks for Deep Continual Visual Learning [14.924672048447338]
我々は、新しい忘れのないニューラルブロック(FFNB)に基づく連続学習のための動的ネットワークアーキテクチャを考案する。
FFNB機能を新しいタスクでトレーニングするには、以前のタスクのnull-スペースのパラメータを制約する新しいプロシージャを使用する。
論文 参考訳(メタデータ) (2021-11-22T17:23:34Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。