論文の概要: Privacy Risks in Time Series Forecasting: User- and Record-Level Membership Inference
- arxiv url: http://arxiv.org/abs/2509.04169v1
- Date: Thu, 04 Sep 2025 12:43:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.160424
- Title: Privacy Risks in Time Series Forecasting: User- and Record-Level Membership Inference
- Title(参考訳): 時系列予測におけるプライバシリスク:ユーザと記録レベルのメンバシップ推定
- Authors: Nicolas Johansson, Tobias Olsson, Daniel Nilsson, Johan Östman, Fazeleh Hoseini,
- Abstract要約: 時系列予測のための2つの新しいメンバシップ推論攻撃を導入する。
我々はこれらの手法を、分類設定による他の主要な攻撃の適応バージョンに対してベンチマークする。
以上の結果から,予測モデルには脆弱性があり,ユーザレベルの攻撃が検出に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 2.5510639595356595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference attacks (MIAs) aim to determine whether specific data were used to train a model. While extensively studied on classification models, their impact on time series forecasting remains largely unexplored. We address this gap by introducing two new attacks: (i) an adaptation of multivariate LiRA, a state-of-the-art MIA originally developed for classification models, to the time-series forecasting setting, and (ii) a novel end-to-end learning approach called Deep Time Series (DTS) attack. We benchmark these methods against adapted versions of other leading attacks from the classification setting. We evaluate all attacks in realistic settings on the TUH-EEG and ELD datasets, targeting two strong forecasting architectures, LSTM and the state-of-the-art N-HiTS, under both record- and user-level threat models. Our results show that forecasting models are vulnerable, with user-level attacks often achieving perfect detection. The proposed methods achieve the strongest performance in several settings, establishing new baselines for privacy risk assessment in time series forecasting. Furthermore, vulnerability increases with longer prediction horizons and smaller training populations, echoing trends observed in large language models.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、モデルをトレーニングするために特定のデータが使用されているかどうかを判断することを目的としている。
分類モデルについて広く研究されているが、時系列予測への影響はほとんど解明されていない。
2つの新たな攻撃を導入することで、このギャップに対処する。
i) もともと分類モデルのために開発された最先端MIAである多変量LiRAの時系列予測設定への適応
(ii)Deep Time Series(DTS)攻撃と呼ばれる新しいエンドツーエンド学習手法。
我々はこれらの手法を、分類設定による他の主要な攻撃の適応バージョンに対してベンチマークする。
TUH-EEG と ELD データセットの現実的な設定における全ての攻撃の評価を行い、LSTM と最先端の N-HiTS という2つの強力な予測アーキテクチャを、記録レベルとユーザレベルの脅威モデルの両方でターゲットとした。
以上の結果から,予測モデルには脆弱性があり,ユーザレベルの攻撃が検出に有効であることが示唆された。
提案手法は, 時系列予測において, プライバシリスク評価のための新たなベースラインを確立することにより, 各種設定において最強のパフォーマンスを実現する。
さらに、より長い予測地平線とより少ないトレーニング人口によって脆弱性が増加し、大きな言語モデルで見られる傾向が反映される。
関連論文リスト
- ChronosX: Adapting Pretrained Time Series Models with Exogenous Variables [30.679739751673655]
本稿では,事前学習した時系列予測モデルに共変量を統合する新しい手法を提案する。
提案手法は,モジュールブロックによる事前学習予測モデルに共変量情報を組み込む。
本手法は,合成データと実データの両方の評価において,事前学習されたモデルに共変量情報を効果的に組み込むことで,既存のベースラインを上回ります。
論文 参考訳(メタデータ) (2025-03-15T12:34:19Z) - A hierarchical approach for assessing the vulnerability of tree-based classification models to membership inference attack [0.552480439325792]
機械学習モデルは、トレーニングデータの秘密プロパティを不注意に公開し、メンバシップ推論攻撃(MIA)に対して脆弱になる。
本稿では、脆弱な木に基づくモデルを効率的に同定するための2つの新しい補完的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-13T15:16:53Z) - ReAugment: Model Zoo-Guided RL for Few-Shot Time Series Augmentation and Forecasting [74.00765474305288]
本稿では,時系列データ拡張のための強化学習(RL)の試験的検討を行う。
我々の手法であるReAugmentは、トレーニングセットのどの部分が拡張されるべきか、どのように拡張を行うべきか、RLがプロセスにどのような利点をもたらすのか、という3つの重要な問題に取り組む。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Predictive Churn with the Set of Good Models [61.00058053669447]
本稿では,予測的不整合という2つの無関係な概念の関連性について考察する。
予測多重性(英: predictive multiplicity)は、個々のサンプルに対して矛盾する予測を生成するモデルである。
2つ目の概念である予測チャーン(英: predictive churn)は、モデル更新前後の個々の予測の違いを調べるものである。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Targeted Attacks on Timeseries Forecasting [0.6719751155411076]
本稿では,時系列予測モデルに対する指向性,振幅性,時間的標的攻撃の新たな定式化を提案する。
これらの攻撃は、出力予測の振幅と方向に特定の影響を与える。
実験結果から,時系列モデルに対する標的攻撃が有効であり,統計的類似性の観点からもより強力であることが示唆された。
論文 参考訳(メタデータ) (2023-01-27T06:09:42Z) - Robust Multivariate Time-Series Forecasting: Adversarial Attacks and
Defense Mechanisms [17.75675910162935]
新しい攻撃パターンは、ターゲット時系列の予測に悪影響を及ぼす。
我々は、このような攻撃の影響を軽減するための2つの防衛戦略を開発する。
実世界のデータセットの実験では、攻撃方式が強力であることを確認しています。
論文 参考訳(メタデータ) (2022-07-19T22:00:41Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。