論文の概要: Learn to Rank Risky Investors: A Case Study of Predicting Retail Traders' Behaviour and Profitability
- arxiv url: http://arxiv.org/abs/2509.16616v1
- Date: Sat, 20 Sep 2025 10:41:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 15:07:39.022946
- Title: Learn to Rank Risky Investors: A Case Study of Predicting Retail Traders' Behaviour and Profitability
- Title(参考訳): リスク投資家のランク付けを学ぶ--小売業者の行動と収益性を予測するケーススタディ
- Authors: Weixian Waylon Li, Tiejun Ma,
- Abstract要約: 本稿では、リスクトレーダーをランク付けタスクとして識別する問題を再編成するリスクランク付け手法(PA-RiskRanker)を提案する。
提案手法は,Profit-Aware binary cross entropy (PA-BCE) 損失関数と,セルフクロストレーダアテンションパイプラインで拡張されたトランスフォーマーベースのロータを備える。
本研究は,貿易リスク管理における既存の深層学習に基づくLETORアルゴリズムの限界について批判的に検討する。
- 参考スコア(独自算出の注目度): 3.731289189298451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying risky traders with high profits in financial markets is crucial for market makers, such as trading exchanges, to ensure effective risk management through real-time decisions on regulation compliance and hedging. However, capturing the complex and dynamic behaviours of individual traders poses significant challenges. Traditional classification and anomaly detection methods often establish a fixed risk boundary, failing to account for this complexity and dynamism. To tackle this issue, we propose a profit-aware risk ranker (PA-RiskRanker) that reframes the problem of identifying risky traders as a ranking task using Learning-to-Rank (LETOR) algorithms. Our approach features a Profit-Aware binary cross entropy (PA-BCE) loss function and a transformer-based ranker enhanced with a self-cross-trader attention pipeline. These components effectively integrate profit and loss (P&L) considerations into the training process while capturing intra- and inter-trader relationships. Our research critically examines the limitations of existing deep learning-based LETOR algorithms in trading risk management, which often overlook the importance of P&L in financial scenarios. By prioritising P&L, our method improves risky trader identification, achieving an 8.4% increase in F1 score compared to state-of-the-art (SOTA) ranking models like Rankformer. Additionally, it demonstrates a 10%-17% increase in average profit compared to all benchmark models.
- Abstract(参考訳): 金融市場での高利益のリスクトレーダーの特定は、規制の遵守やヘッジに関するリアルタイムな決定を通じて効果的なリスク管理を確保するために、取引所などの市場メーカーにとって不可欠である。
しかし、個々のトレーダーの複雑で動的な振る舞いを捉えることは大きな課題となる。
従来の分類と異常検出手法は、しばしば固定されたリスク境界を確立し、この複雑さとダイナミズムを考慮していない。
そこで本稿では,リスクトレーサをLearning-to-Rank(LETOR)アルゴリズムを用いてランク付けタスクとして識別する問題を再編成する,利益を考慮したリスクランキング(PA-RiskRanker)を提案する。
提案手法は,Profit-Aware binary cross entropy (PA-BCE) 損失関数と,セルフクロストレーダアテンションパイプラインで拡張されたトランスフォーマーベースのロータを備える。
これらのコンポーネントは、トレーダ内およびトレーダ間関係を捉えながら、トレーニングプロセスに利益と損失(P&L)の考慮を効果的に統合する。
本研究は、金融シナリオにおけるP&Lの重要性をしばしば見落としているトレーディングリスク管理における、既存のディープラーニングベースのLETORアルゴリズムの限界を批判的に検討する。
P&Lを優先することで、Ranformerのような最先端(SOTA)ランキングモデルと比較してF1スコアが8.4%増加し、リスクトレーダーの識別が向上する。
さらに、すべてのベンチマークモデルと比較して平均利益が10%-17%増加したことが示されています。
関連論文リスト
- To Trade or Not to Trade: An Agentic Approach to Estimating Market Risk Improves Trading Decisions [0.0]
大規模言語モデル(LLM)はますますエージェントフレームワークにデプロイされている。
我々は LLM を用いて金融時系列の微分方程式を反復的に発見するエージェントシステムを開発した。
モデルインフォームドトレーディング戦略は標準LLMエージェントよりも優れていた。
論文 参考訳(メタデータ) (2025-07-11T13:29:32Z) - Dynamic Reinsurance Treaty Bidding via Multi-Agent Reinforcement Learning [0.0]
本稿では,再保証条約入札のための新しいマルチエージェント強化学習(MARL)フレームワークを開発する。
MARLエージェントは、最大15%高い引受利益、20%低い尾リスク、25%以上のシャープ比の改善を達成する。
これらの結果は、MARLがより透明性があり、適応的で、リスクに敏感なリシュアランス市場への道を開くことを示唆している。
論文 参考訳(メタデータ) (2025-06-16T05:43:22Z) - Risk-averse policies for natural gas futures trading using distributional reinforcement learning [0.0]
本稿では,天然ガス先物取引における3つの分散RLアルゴリズムの有効性について検討する。
私たちの知る限りでは、これらのアルゴリズムはトレーディングの文脈で一度も適用されていない。
CVaR を最大化するために C51 と IQN を訓練すると, リスク回避性のあるリスク感受性ポリシーが得られた。
論文 参考訳(メタデータ) (2025-01-08T11:11:25Z) - When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - Harnessing Deep Q-Learning for Enhanced Statistical Arbitrage in
High-Frequency Trading: A Comprehensive Exploration [0.0]
強化学習(Reinforcement Learning、RL)は、エージェントが環境と対話することで学習する機械学習の分野である。
本稿では,HFT(High-Frequency Trading)シナリオに適した統計仲裁手法におけるRLの統合について述べる。
広範なシミュレーションやバックテストを通じて、RLはトレーディング戦略の適応性を高めるだけでなく、収益性指標の改善やリスク調整されたリターンの期待も示している。
論文 参考訳(メタデータ) (2023-09-13T06:15:40Z) - Safe Deployment for Counterfactual Learning to Rank with Exposure-Based
Risk Minimization [63.93275508300137]
本稿では,安全な配置を理論的に保証する新たなリスク認識型対実学習ランク法を提案する。
提案手法の有効性を実験的に検証し,データが少ない場合の動作不良の早期回避に有効であることを示す。
論文 参考訳(メタデータ) (2023-04-26T15:54:23Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Robust Risk-Sensitive Reinforcement Learning Agents for Trading Markets [23.224860573461818]
トレーディングマーケットは、強化学習エージェントを展開するための現実世界の金融アプリケーションである。
リスクに敏感なペイオフを考慮したマルチエージェント学習のための経験的ゲーム理論解析を拡張した最初の研究である。
論文 参考訳(メタデータ) (2021-07-16T19:15:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。