論文の概要: Differentiable Adversarial Attacks for Marked Temporal Point Processes
- arxiv url: http://arxiv.org/abs/2501.10606v1
- Date: Fri, 17 Jan 2025 23:42:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:26:02.216034
- Title: Differentiable Adversarial Attacks for Marked Temporal Point Processes
- Title(参考訳): マーク付き時間点過程に対する微分逆アタック
- Authors: Pritish Chakraborty, Vinayak Gupta, Rahul R, Srikanta J. Bedathur, Abir De,
- Abstract要約: マーク付き時間点過程(MTPP)は連続時間事象列のモデル化に極めて有効であることが示されている。
MTPPモデルに特化して設計された敵攻撃について述べる。
- 参考スコア(独自算出の注目度): 20.214175967274254
- License:
- Abstract: Marked temporal point processes (MTPPs) have been shown to be extremely effective in modeling continuous time event sequences (CTESs). In this work, we present adversarial attacks designed specifically for MTPP models. A key criterion for a good adversarial attack is its imperceptibility. For objects such as images or text, this is often achieved by bounding perturbation in some fixed $L_p$ norm-ball. However, similarly minimizing distance norms between two CTESs in the context of MTPPs is challenging due to their sequential nature and varying time-scales and lengths. We address this challenge by first permuting the events and then incorporating the additive noise to the arrival timestamps. However, the worst case optimization of such adversarial attacks is a hard combinatorial problem, requiring exploration across a permutation space that is factorially large in the length of the input sequence. As a result, we propose a novel differentiable scheme PERMTPP using which we can perform adversarial attacks by learning to minimize the likelihood, while minimizing the distance between two CTESs. Our experiments on four real-world datasets demonstrate the offensive and defensive capabilities, and lower inference times of PERMTPP.
- Abstract(参考訳): MTPPは連続時間事象列(CTES)のモデル化に極めて有効であることが示されている。
本研究では,MTPPモデルに特化して設計された敵攻撃について述べる。
良い敵攻撃の鍵となる基準は、その非受容性である。
画像やテキストなどのオブジェクトの場合、これは固定された$L_p$ノルムボールで摂動を束縛することで達成されることが多い。
しかし、MTPPの文脈における2つのCTES間の距離ノルムの最小化は、そのシーケンシャルな性質と時間スケールと長さの変化により困難である。
この課題に対処するため、まずイベントを置換し、次に到着するタイムスタンプに付加ノイズを組み込むことで対処する。
しかし、このような敵攻撃の最悪の場合の最適化は難しい組合せ問題であり、入力列の長さが決定的に大きい置換空間を探索する必要がある。
その結果,2つのCTES間の距離を最小化しながら,その可能性の最小化を学習することで,敵対攻撃を実行できる新しい微分可能方式PERMTPPを提案する。
実世界の4つのデータセットに対する実験は、PERMTPPの攻撃的および防御的能力、および低い推論時間を示す。
関連論文リスト
- Modeling Adversarial Attack on Pre-trained Language Models as Sequential
Decision Making [10.425483543802846]
敵攻撃タスクは、事前訓練された言語モデル(PLM)が小さな摂動に弱いことを発見した。
本稿では, PLM に対する逆攻撃タスクを逐次決定問題としてモデル化する。
そこで本稿では,SDM-Attack と呼ばれる敵を発生させる適切な逐次攻撃経路を見つけるための強化学習を提案する。
論文 参考訳(メタデータ) (2023-05-27T10:33:53Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Semi-Supervised Temporal Action Detection with Proposal-Free Masking [134.26292288193298]
PropOsal-free Temporal mask (SPOT) に基づく新しい半教師付き時間行動検出モデルを提案する。
SPOTは最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2022-07-14T16:58:47Z) - Adversarial Attacks and Defense for Non-Parametric Two-Sample Tests [73.32304304788838]
本稿では,非パラメトリックTSTの障害モードを逆攻撃により系統的に明らかにする。
TST非依存的な攻撃を可能にするために,異なる種類のテスト基準を協調的に最小化するアンサンブル攻撃フレームワークを提案する。
そこで本研究では,TSTの強化のために,逆対を反復的に生成し,深層カーネルを訓練する最大最小最適化を提案する。
論文 参考訳(メタデータ) (2022-02-07T11:18:04Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Interval-censored Hawkes processes [82.87738318505582]
本研究では,Hawkesプロセスのパラメータを間隔制限設定で推定するモデルを提案する。
我々は、ホークス族に対する非均質近似が、間隔検閲された設定において牽引可能な可能性を認めている方法を示す。
論文 参考訳(メタデータ) (2021-04-16T07:29:04Z) - BERT-ATTACK: Adversarial Attack Against BERT Using BERT [77.82947768158132]
離散データ(テキストなど)に対するアドリアック攻撃は、連続データ(画像など)よりも難しい。
対戦型サンプルを生成するための高品質で効果的な方法である textbfBERT-Attack を提案する。
本手法は、成功率と摂動率の両方において、最先端の攻撃戦略より優れている。
論文 参考訳(メタデータ) (2020-04-21T13:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。