論文の概要: Explainable Reinforcement Learning on Financial Stock Trading using SHAP
- arxiv url: http://arxiv.org/abs/2208.08790v1
- Date: Thu, 18 Aug 2022 12:03:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:35:38.074886
- Title: Explainable Reinforcement Learning on Financial Stock Trading using SHAP
- Title(参考訳): SHAPを用いた金融株取引における説明可能な強化学習
- Authors: Satyam Kumar, Mendhikar Vishal and Vadlamani Ravi
- Abstract要約: 本稿では,金融株取引におけるエージェントの行動を説明するために,SHAP(SHapley Additive exPlanation)を,一般的な深層強化学習アーキテクチャviz.,Deep Q Network(DQN)に採用することを提案する。
提案手法の有効性を実証するために,SENSEXとDJIAという2つの一般的なデータセットを用いて実験を行い,その結果を報告する。
- 参考スコア(独自算出の注目度): 5.2725049926324745
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) research gained prominence in
recent years in response to the demand for greater transparency and trust in AI
from the user communities. This is especially critical because AI is adopted in
sensitive fields such as finance, medicine etc., where implications for
society, ethics, and safety are immense. Following thorough systematic
evaluations, work in XAI has primarily focused on Machine Learning (ML) for
categorization, decision, or action. To the best of our knowledge, no work is
reported that offers an Explainable Reinforcement Learning (XRL) method for
trading financial stocks. In this paper, we proposed to employ SHapley Additive
exPlanation (SHAP) on a popular deep reinforcement learning architecture viz.,
deep Q network (DQN) to explain an action of an agent at a given instance in
financial stock trading. To demonstrate the effectiveness of our method, we
tested it on two popular datasets namely, SENSEX and DJIA, and reported the
results.
- Abstract(参考訳): 説明可能な人工知能(XAI)の研究は、ユーザコミュニティからの透明性の向上とAIへの信頼の要求に応えて近年注目を集めている。
これは、社会、倫理、安全に影響を及ぼす金融、医療などの敏感な分野でAIが採用されているため、特に重要である。
徹底的な体系的な評価の後、XAIの作業は主に分類、決定、行動のための機械学習(ML)に焦点を当てている。
我々の知る限り、金融株を取引するための説明可能な強化学習(XRL)手法を提供する研究は報告されていない。
本稿では,金融株取引におけるエージェントの行動を説明するために,SHAP(SHapley Additive exPlanation)を一般的な深層強化学習アーキテクチャである深部Qネットワーク(DQN)に導入することを提案した。
提案手法の有効性を示すために,SENSEXとDJIAという2つの一般的なデータセットを用いて実験を行い,その結果を報告する。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - A Survey of Explainable Artificial Intelligence (XAI) in Financial Time Series Forecasting [1.2937020918620652]
eXplainable AI(XAI)の分野は、AIモデルをより理解しやすくすることを目指している。
本稿では、金融時系列を予測するXAIアプローチを分類する。
金融におけるXAIの現在の役割を包括的に把握している。
論文 参考訳(メタデータ) (2024-07-22T17:06:19Z) - When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Quantitative Trading using Deep Q Learning [0.0]
強化学習(Reinforcement Learning、RL)は、ロボット工学、ゲームプレイ、自律システムなど、さまざまな用途で使用されている機械学習の分野である。
本稿では,量的取引におけるRLの利用について検討し,RLに基づく取引アルゴリズムのケーススタディを示す。
論文 参考訳(メタデータ) (2023-04-03T11:57:36Z) - Analyzing Machine Learning Models for Credit Scoring with Explainable AI
and Optimizing Investment Decisions [0.0]
本稿では、説明可能なAI(XAI)の実践に関連する2つの異なる質問について検討する。
この研究では、単一分類器(論理回帰、決定木、LDA、QDA)、異種アンサンブル(AdaBoost、ランダムフォレスト)、シーケンシャルニューラルネットワークなど、さまざまな機械学習モデルを比較した。
LIMEとSHAPの2つの高度なポストホックモデル説明可能性技術を用いて、MLベースのクレジットスコアリングモデルを評価する。
論文 参考訳(メタデータ) (2022-09-19T21:44:42Z) - Augmented cross-selling through explainable AI -- a case from energy
retailing [0.0]
エネルギー小売店の顧客220,185件のデータを分析し、最大86%の正当性(AUC)でクロス購入を予測し、XAI法SHAPが実際の購入者に対する説明を提供することを示す。
さらに,情報システム,XAI,関係マーケティングにおける研究の意義について概説する。
論文 参考訳(メタデータ) (2022-08-24T09:51:52Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z) - Explainable AI in Credit Risk Management [0.0]
機械学習(ML)に基づく信用スコアリングモデルに対して,局所解釈モデル予測説明(LIME)とSHapley Additive exPlanations(SHAP)という2つの高度な説明可能性手法を実装した。
具体的には、LIMEを使用してインスタンスをローカルとSHAPで説明し、ローカルとグローバルの両方で説明します。
SHAP値を用いて生成されたグラフを説明するために利用可能なさまざまなカーネルを使用して、結果を詳細に議論し、複数の比較シナリオを提示する。
論文 参考訳(メタデータ) (2021-03-01T12:23:20Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。