論文の概要: From Pixels to Trajectory: Universal Adversarial Example Detection via Temporal Imprints
- arxiv url: http://arxiv.org/abs/2503.04853v1
- Date: Thu, 06 Mar 2025 06:00:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:22:51.068630
- Title: From Pixels to Trajectory: Universal Adversarial Example Detection via Temporal Imprints
- Title(参考訳): 画像から軌道へ:時間的インプリントによる普遍的逆例検出
- Authors: Yansong Gao, Huaibing Peng, Hua Ma, Zhiyang Dai, Shuo Wang, Hongsheng Hu, Anmin Fu, Minhui Xue,
- Abstract要約: 我々は,対立例(AE)攻撃による識別可能な時間的(または歴史的)軌跡のインプリントを公表した。
AE検出のためのTRAIT(TRaceable Adrial temporal trajectory ImprinTs)を提案する。
TRAIT は AE 検出精度が 97% を超え、多くの場合 99% 程度であり、偽の拒絶率 1% を維持している。
- 参考スコア(独自算出の注目度): 21.454396392842426
- License:
- Abstract: For the first time, we unveil discernible temporal (or historical) trajectory imprints resulting from adversarial example (AE) attacks. Standing in contrast to existing studies all focusing on spatial (or static) imprints within the targeted underlying victim models, we present a fresh temporal paradigm for understanding these attacks. Of paramount discovery is that these imprints are encapsulated within a single loss metric, spanning universally across diverse tasks such as classification and regression, and modalities including image, text, and audio. Recognizing the distinct nature of loss between adversarial and clean examples, we exploit this temporal imprint for AE detection by proposing TRAIT (TRaceable Adversarial temporal trajectory ImprinTs). TRAIT operates under minimal assumptions without prior knowledge of attacks, thereby framing the detection challenge as a one-class classification problem. However, detecting AEs is still challenged by significant overlaps between the constructed synthetic losses of adversarial and clean examples due to the absence of ground truth for incoming inputs. TRAIT addresses this challenge by converting the synthetic loss into a spectrum signature, using the technique of Fast Fourier Transform to highlight the discrepancies, drawing inspiration from the temporal nature of the imprints, analogous to time-series signals. Across 12 AE attacks including SMACK (USENIX Sec'2023), TRAIT demonstrates consistent outstanding performance across comprehensively evaluated modalities, tasks, datasets, and model architectures. In all scenarios, TRAIT achieves an AE detection accuracy exceeding 97%, often around 99%, while maintaining a false rejection rate of 1%. TRAIT remains effective under the formulated strong adaptive attacks.
- Abstract(参考訳): 対人攻撃(AE)による識別可能な時間的(または歴史的)軌跡のインプリントを初めて明らかにした。
攻撃対象モデル内の空間的(あるいは静的)インプリントに焦点を当てた既存の研究とは対照的に,これらの攻撃を理解するための新たな時間的パラダイムが提示される。
最も重要な発見は、これらのインプリントが単一の損失メトリックにカプセル化され、分類や回帰、画像、テキスト、オーディオを含む様々なタスクに普遍的に分散していることである。
AE検出にはTRAIT(TRaceable Adversarial temporal trajectory ImprinTs)を用いた。
TRAITは攻撃の事前の知識なしに最小限の仮定の下で動作し、1クラス分類問題として検出課題をフレーミングする。
しかし,AEsの検出は,入力に対して基底真理が欠如していることから,合成された対角線の損失とクリーンな例との間に大きな重なりがあるため,依然として課題が残っている。
TRAITはこの課題に対処するため、合成損失をスペクトルシグネチャに変換し、Fast Fourier Transform(英語版)の技法を用いて、インプリントの時間的性質からインスピレーションを得る。
SMACK(USENIX Sec'2023)を含む12のAE攻撃を通じて、TRAITは包括的な評価されたモダリティ、タスク、データセット、モデルアーキテクチャにわたって、一貫したパフォーマンスを示す。
すべてのシナリオにおいて、TRAIT は AE 検出精度が 97% を超え、多くの場合 99% であり、偽の拒絶率 1% を維持している。
TRAITは強力な適応攻撃の下で有効である。
関連論文リスト
- TFLAG:Towards Practical APT Detection via Deviation-Aware Learning on Temporal Provenance Graph [5.3620586848260015]
Advanced Persistent Threat (APT) はますます複雑化し、隠蔽されている。
近年の研究では、証明グラフから詳細な情報を抽出するグラフ学習技術が取り入れられている。
本稿では,高度な異常検出フレームワークであるTFLAGを紹介する。
論文 参考訳(メタデータ) (2025-01-13T01:08:06Z) - Eliminating Catastrophic Overfitting Via Abnormal Adversarial Examples Regularization [50.43319961935526]
SSAT(Single-step adversarial training)は、効率性と堅牢性の両方を達成する可能性を実証している。
SSATは破滅的なオーバーフィッティング(CO)に苦しむが、これは非常に歪んだ分類器に繋がる現象である。
本研究では,SSAT学習ネットワーク上で発生するいくつかの逆の例が異常な振る舞いを示すことを観察する。
論文 参考訳(メタデータ) (2024-04-11T22:43:44Z) - Video Anomaly Detection via Spatio-Temporal Pseudo-Anomaly Generation : A Unified Approach [49.995833831087175]
本研究は,画像のマスキング領域にペンキを塗布することにより,汎用的な映像時間PAを生成する手法を提案する。
さらに,OCC設定下での現実世界の異常を検出するための単純な統合フレームワークを提案する。
提案手法は,OCC設定下での既存のPAs生成および再構築手法と同等に動作する。
論文 参考訳(メタデータ) (2023-11-27T13:14:06Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Harnessing Contrastive Learning and Neural Transformation for Time Series Anomaly Detection [0.0]
時系列異常検出(TSAD)は多くの産業応用において重要な役割を担っている。
コントラスト学習は、ラベルのないデータから意味のある表現を抽出する過程において、時系列領域で勢いを増している。
本研究では,学習可能な変換で強化されたウィンドウベースのコントラスト学習戦略を取り入れた新しいアプローチであるCNTを提案する。
論文 参考訳(メタデータ) (2023-04-16T21:36:19Z) - Generalizable Deepfake Detection with Phase-Based Motion Analysis [11.042856247812969]
本稿では,時間的ダイナミクスの位相に基づく動き表現を利用するDeepFake(DF)ビデオ検出手法であるPhaseForensicsを提案する。
また,CelebDFv2 では 91.2% の動画レベル AUC で, 歪み, 対向性, 最先端のクロスデータセットの一般化が見られた。
論文 参考訳(メタデータ) (2022-11-17T06:28:01Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Exploiting Spatial-temporal Correlations for Video Anomaly Detection [7.336831373786849]
ビデオ異常検出(VAD)は、異常事象のあいまいさと多様性のため、パターン認識コミュニティにおいて難しい課題である。
本稿では,ST-LSTMを用いて逆学習を行うための識別器を導入し,学習能力を向上させる。
本手法は, UCSD2, CUHKアベニュー, 上海テックにおいて, AUCの96.7%, 87.8%, 73.1%の最先端手法と比較して, 競争性能が向上する。
論文 参考訳(メタデータ) (2022-11-02T02:13:24Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。