論文の概要: Watermarking Large Language Model-based Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2507.20762v1
- Date: Mon, 28 Jul 2025 12:16:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.109167
- Title: Watermarking Large Language Model-based Time Series Forecasting
- Title(参考訳): 大規模言語モデルに基づく時系列予測の透かし
- Authors: Wei Yuan, Chaoqun Yang, Yu Xing, Tong Chen, Nguyen Quoc Viet Hung, Hongzhi Yin,
- Abstract要約: LLMTS(Large Language Model-based Time Series Forecasting)は、複雑で多様な時間的データを扱う上で、非常に有望であることを示す。
しかし、その強力な時系列予測能力は、誤解を招く、あるいは製造されたディープフェイク時系列データを生成するために誤用される可能性がある。
本稿では,従来のLLMTSモデルと広く互換性のあるポストホックウォーターマーキングフレームワークであるWaltzを提案する。
- 参考スコア(独自算出の注目度): 37.94950537628833
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Model-based Time Series Forecasting (LLMTS) has shown remarkable promise in handling complex and diverse temporal data, representing a significant step toward foundation models for time series analysis. However, this emerging paradigm introduces two critical challenges. First, the substantial commercial potential and resource-intensive development raise urgent concerns about intellectual property (IP) protection. Second, their powerful time series forecasting capabilities may be misused to produce misleading or fabricated deepfake time series data. To address these concerns, we explore watermarking the outputs of LLMTS models, that is, embedding imperceptible signals into the generated time series data that remain detectable by specialized algorithms. We propose a novel post-hoc watermarking framework, Waltz, which is broadly compatible with existing LLMTS models. Waltz is inspired by the empirical observation that time series patch embeddings are rarely aligned with a specific set of LLM tokens, which we term ``cold tokens''. Leveraging this insight, Waltz embeds watermarks by rewiring the similarity statistics between patch embeddings and cold token embeddings, and detects watermarks using similarity z-scores. To minimize potential side effects, we introduce a similarity-based embedding position identification strategy and employ projected gradient descent to constrain the watermark noise within a defined boundary. Extensive experiments using two popular LLMTS models across seven benchmark datasets demonstrate that Waltz achieves high watermark detection accuracy with minimal impact on the quality of the generated time series.
- Abstract(参考訳): 大規模言語モデルに基づく時系列予測(LLMTS)は、複雑で多様な時間的データを扱う上で大きな可能性を示しており、時系列解析の基礎モデルに向けた重要な一歩である。
しかし、この新たなパラダイムは2つの重要な課題をもたらす。
第一に、実質的な商業的ポテンシャルと資源集約開発は知的財産権(IP)保護に対する緊急の懸念を引き起こす。
第二に、彼らの強力な時系列予測能力は、誤解を招く、あるいは製造されたディープフェイク時系列データを生成するために誤用される可能性がある。
これらの問題に対処するために、LLMTSモデルの出力を透かし、すなわち、特殊なアルゴリズムで検出可能な生成時系列データに知覚不可能な信号を埋め込む方法について検討する。
本稿では,従来のLLMTSモデルと広く互換性のあるポストホックウォーターマーキングフレームワークであるWaltzを提案する。
Waltz は、時系列パッチの埋め込みが特定の LLM トークンのセットと整列されることはめったにないという経験的な観察にインスパイアされている。
この知見を活用して、Waltz氏は、パッチ埋め込みとコールドトークン埋め込みの類似性統計を切り替えて、透かしを埋め込み、類似性zスコアを使用して透かしを検出する。
潜在的な副作用を最小限に抑えるため,類似性に基づく埋め込み位置同定戦略を導入し,境界内での透かし雑音の抑制に投射勾配勾配を用いた。
7つのベンチマークデータセットにまたがる2つの人気のあるLLMTSモデルを用いた大規模な実験により、ワルツは生成した時系列の品質に最小限の影響を伴って高い透かし検出精度を達成することを示した。
関連論文リスト
- TimeWak: Temporal Chained-Hashing Watermark for Time Series Data [4.556818220261711]
TimeWakは時系列拡散モデルのための最初の透かしアルゴリズムである。
TimeWakは、時間的連鎖したハッシュの透かしを、実際の時間的特徴空間に直接埋め込む。
我々は,TimeWakが合成データ品質,透かし検出性,堅牢性に与える影響を,様々な後処理攻撃下で評価した。
論文 参考訳(メタデータ) (2025-06-06T12:47:45Z) - Enhancing Foundation Models for Time Series Forecasting via Wavelet-based Tokenization [74.3339999119713]
我々はウェーブレットベースのトークンーザを開発し、時間局所化周波数の空間でモデルが複雑な表現を直接学習できるようにする。
提案手法は,まず入力時系列をスケール・分解し,次に閾値を設定し,ウェーブレット係数を定量化し,最後に予測水平方向の係数を予測する自己回帰モデルを事前学習する。
論文 参考訳(メタデータ) (2024-12-06T18:22:59Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Large Language Models Are Zero-Shot Time Series Forecasters [48.73953666153385]
時系列を数値桁の列として符号化することにより、テキストの次トーケン予測として時系列予測をフレーム化することができる。
GPT-3 や LLaMA-2 のような大規模言語モデル (LLM) は、ダウンストリームタスクでトレーニングされた目的構築された時系列モデルの性能に匹敵する、あるいはそれ以上のレベルにおいて、驚くほどゼロショット・エクスポレート・時系列を生成できる。
論文 参考訳(メタデータ) (2023-10-11T19:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。