論文の概要: The Ephemeral Threat: Assessing the Security of Algorithmic Trading Systems powered by Deep Learning
- arxiv url: http://arxiv.org/abs/2505.10430v1
- Date: Thu, 15 May 2025 15:50:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.394562
- Title: The Ephemeral Threat: Assessing the Security of Algorithmic Trading Systems powered by Deep Learning
- Title(参考訳): Ephemeral Threat:ディープラーニングを利用したアルゴリズム取引システムのセキュリティ評価
- Authors: Advije Rizvani, Giovanni Apruzzese, Pavel Laskov,
- Abstract要約: 本稿では,Deep Learning (DL) を用いた計算ファイナンスにおける株価予測の安全性について検討する。
我々は、DLベースのATSに適した新しいタイプの攻撃を行うために使用できるEP(ephemeral perturbation)の概念を定式化する。
- 参考スコア(独自算出の注目度): 4.406613983914424
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We study the security of stock price forecasting using Deep Learning (DL) in computational finance. Despite abundant prior research on the vulnerability of DL to adversarial perturbations, such work has hitherto hardly addressed practical adversarial threat models in the context of DL-powered algorithmic trading systems (ATS). Specifically, we investigate the vulnerability of ATS to adversarial perturbations launched by a realistically constrained attacker. We first show that existing literature has paid limited attention to DL security in the financial domain, which is naturally attractive for adversaries. Then, we formalize the concept of ephemeral perturbations (EP), which can be used to stage a novel type of attack tailored for DL-based ATS. Finally, we carry out an end-to-end evaluation of our EP against a profitable ATS. Our results reveal that the introduction of small changes to the input stock prices not only (i) induces the DL model to behave incorrectly but also (ii) leads the whole ATS to make suboptimal buy/sell decisions, resulting in a worse financial performance of the targeted ATS.
- Abstract(参考訳): 本稿では,Deep Learning (DL) を用いた計算ファイナンスにおける株価予測の安全性について検討する。
逆方向の摂動に対するDLの脆弱性について多くの先行研究があったが、DL駆動のアルゴリズムトレーディングシステム(ATS)の文脈において、このような研究は現実的な逆方向の脅威モデルにほとんど対処していない。
具体的には,現実的に拘束された攻撃者によって起動される敵の摂動に対するATSの脆弱性について検討する。
まず,既存の文献が,敵にとって自然に魅力的な金融分野におけるDLセキュリティに限定的に注意を払っていることを示す。
そこで我々は,DLをベースとしたATSに適した新しいタイプの攻撃を行うためのEP(ephemeral perturbation)の概念を定式化した。
最後に,利益率の高いATSに対するEPのエンドツーエンド評価を行う。
結果から,入力株価に小さな変化がもたらされたことが判明した。
(i)DLモデルに誤った振る舞いをさせるが、同時に振る舞う
(二)ATS全体を誘導し、準最適購入・販売決定を行い、ターゲットATSの財政成績が悪化する。
関連論文リスト
- Robust LLM safeguarding via refusal feature adversarial training [15.76605079209956]
大規模言語モデル(LLM)は、有害な応答を誘発する敵攻撃に対して脆弱である。
本稿では,敵対的訓練を効率的に行う新しいアルゴリズムReFATを提案する。
実験結果から, ReFATは, 広範囲な敵攻撃に対する3つのLLMのロバスト性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-09-30T08:41:39Z) - WPN: An Unlearning Method Based on N-pair Contrastive Learning in Language Models [3.2200593267837987]
生成言語モデル(LM)は、事前訓練中に得られた有害な知識のために不適切または有害な出力を生成する。
我々は,n対の相対的学習フレームワークにおいて,位置重み付き平均プールを利用する重み付き位置Nペア学習(WPN)を提案する。
OPTおよびGPT-NEO LMの実験では、WPNは有害反応の割合を効果的に減少させ、最大95.8%の無害率を達成することが示されている。
論文 参考訳(メタデータ) (2024-08-18T12:37:03Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Consistent Valid Physically-Realizable Adversarial Attack against
Crowd-flow Prediction Models [4.286570387250455]
ディープラーニング(DL)モデルは、都市全体のクラウドフローパターンを効果的に学習することができる。
DLモデルは、目立たない逆境の摂動に対して不利に作用することが知られている。
論文 参考訳(メタデータ) (2023-03-05T13:30:25Z) - Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard
Security Attacks [67.86285142381644]
命令追従型大規模言語モデルの最近の進歩は、悪意のある目的のために二重使用リスクを増幅する。
命令追従機能がコンピュータセキュリティの標準的な攻撃を可能にするため、デュアルユースを防ぐのは難しい。
本研究では,LLMがヘイトスピーチや詐欺などの悪意のあるコンテンツをターゲットにすることができることを示す。
論文 参考訳(メタデータ) (2023-02-11T15:57:44Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Exploiting Vulnerabilities of Deep Learning-based Energy Theft Detection
in AMI through Adversarial Attacks [1.5791732557395552]
本研究では,一段階攻撃や反復攻撃を含む敵攻撃による深層学習によるエネルギー盗難検出の脆弱性について検討した。
3種類のニューラルネットワークによる評価は,DLモデルによって検出されることなく,敵攻撃者が極めて低消費電力の測定をユーティリティに報告できることを示唆している。
論文 参考訳(メタデータ) (2020-10-16T02:25:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。