論文の概要: Targeted Manipulation: Slope-Based Attacks on Financial Time-Series Data
- arxiv url: http://arxiv.org/abs/2511.19330v1
- Date: Mon, 24 Nov 2025 17:26:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.340024
- Title: Targeted Manipulation: Slope-Based Attacks on Financial Time-Series Data
- Title(参考訳): ターゲットマニピュレーション:金融時系列データに基づくスロープ攻撃
- Authors: Dominik Luszczynski,
- Abstract要約: 本稿では,N-HiTSモデルにより予測される株価予測の傾向を変えることを目的とした,2つの新しい傾斜法を提案する。
通常のN-HiTS予測と比較して、この2つの新しい手法は斜面を2倍にすることでN-HiTS予測を操作できる。
これらの新たなスロープ攻撃は、実際の入力と摂動入力をフィルタリングする識別器など、標準的なセキュリティメカニズムをバイパスすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A common method of attacking deep learning models is through adversarial attacks, which occur when an attacker specifically modifies the input of a model to produce an incorrect result. Adversarial attacks have been deeply investigated in the image domain; however, there is less research in the time-series domain and very little for forecasting financial data. To address these concerns, this study aims to build upon previous research on adversarial attacks for time-series data by introducing two new slope-based methods aimed to alter the trends of the predicted stock forecast generated by an N-HiTS model. Compared to the normal N-HiTS predictions, the two new slope-based methods, the General Slope Attack and Least-Squares Slope Attack, can manipulate N-HiTS predictions by doubling the slope. These new slope attacks can bypass standard security mechanisms, such as a discriminator that filters real and perturbed inputs, reducing a 4-layered CNN's specificity to 28% and accuracy to 57%. Furthermore, the slope based methods were incorporated into a GAN architecture as a means of generating realistic synthetic data, while simultaneously fooling the model. Finally, this paper also proposes a sample malware designed to inject an adversarial attack in the model inference library, proving that ML-security research should not only focus on making the model safe, but also securing the entire pipeline.
- Abstract(参考訳): ディープラーニングモデルを攻撃する一般的な方法は、攻撃者がモデルの入力を具体的に修正して誤った結果を生成するときに発生する敵攻撃である。
画像領域では敵対的攻撃が深く研究されているが、時系列領域では研究は少なく、財務データの予測は極めて少ない。
これらの問題に対処するために,N-HiTSモデルにより予測される株価予測の傾向を変えることを目的とした,2つの新しいスロープベースの手法を導入することで,時系列データに対する敵攻撃に関する過去の研究を基礎にすることを目的とした。
通常のN-HiTS予測と比較して,斜面を2倍にすることでN-HiTS予測を操作できる。
これらの新たなスロープ攻撃は、実際の入力と摂動入力をフィルタリングする識別器のような標準的なセキュリティメカニズムを回避でき、4層CNNの特異性を28%、精度を57%に削減できる。
さらに,現実的な合成データを生成する手段として,斜面に基づく手法をGANアーキテクチャに組み込んだ。
最後に、モデル推論ライブラリに敵攻撃を注入するように設計されたサンプルマルウェアを提案し、MLセキュリティの研究は、モデルを安全にすることだけでなく、パイプライン全体の確保にも焦点をあてるべきであることを証明した。
関連論文リスト
- Privacy Risks in Time Series Forecasting: User- and Record-Level Membership Inference [2.5510639595356595]
時系列予測のための2つの新しいメンバシップ推論攻撃を導入する。
我々はこれらの手法を、分類設定による他の主要な攻撃の適応バージョンに対してベンチマークする。
以上の結果から,予測モデルには脆弱性があり,ユーザレベルの攻撃が検出に有効であることが示唆された。
論文 参考訳(メタデータ) (2025-09-04T12:43:45Z) - The Surprising Effectiveness of Membership Inference with Simple N-Gram Coverage [71.8564105095189]
対象モデルからのテキスト出力のみに依存する会員推論攻撃であるN-Gram Coverage Attackを導入する。
我々はまず、N-Gram Coverage Attackが他のブラックボックスメソッドより優れている、様々な既存のベンチマークを実証する。
GPT-4oのような最近のモデルでは、メンバーシップ推論に対するロバスト性が向上していることがわかった。
論文 参考訳(メタデータ) (2025-08-13T08:35:16Z) - ReAugment: Model Zoo-Guided RL for Few-Shot Time Series Augmentation and Forecasting [74.00765474305288]
本稿では,時系列データ拡張のための強化学習(RL)の試験的検討を行う。
我々の手法であるReAugmentは、トレーニングセットのどの部分が拡張されるべきか、どのように拡張を行うべきか、RLがプロセスにどのような利点をもたらすのか、という3つの重要な問題に取り組む。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - Black-box Adversarial Attacks on Network-wide Multi-step Traffic State
Prediction Models [4.353029347463806]
予測モデルをブラックボックスとして扱うことで,敵攻撃の枠組みを提案する。
相手は任意の入力で予測モデルを導出し、対応する出力を得る。
攻撃の有効性を検証するため,グラフニューラルネットワークベースモデル(GCGRNNとDCRNN)の2つの状態について検討した。
論文 参考訳(メタデータ) (2021-10-17T03:45:35Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Adversarial Poisoning Attacks and Defense for General Multi-Class Models
Based On Synthetic Reduced Nearest Neighbors [14.968442560499753]
最先端の機械学習モデルは、データ中毒攻撃に弱い。
本論文では,データのマルチモダリティに基づく新しいモデルフリーラベルフリップ攻撃を提案する。
第二に、SRNN(Synthetic reduced Nearest Neighbor)モデルに基づく新しい防御技術を提案する。
論文 参考訳(メタデータ) (2021-02-11T06:55:40Z) - A Deep Marginal-Contrastive Defense against Adversarial Attacks on 1D
Models [3.9962751777898955]
ディープラーニングアルゴリズムは最近、脆弱性のために攻撃者がターゲットとしている。
非連続的深層モデルは、いまだに敵対的な攻撃に対して頑健ではない。
本稿では,特徴を特定のマージン下に置くことによって予測を容易にする新しい目的/損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-08T20:51:43Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。