論文の概要: Advantage-based Temporal Attack in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2602.19582v1
- Date: Mon, 23 Feb 2026 08:08:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.720949
- Title: Advantage-based Temporal Attack in Reinforcement Learning
- Title(参考訳): 強化学習におけるアドバンテージに基づく時間的攻撃
- Authors: Shenghong He,
- Abstract要約: AATは、異なる期間と現在の状態の履歴情報間の依存関係をキャプチャする。
AATは、与えられた状態における摂動の有効性を定量化する重み付き優位メカニズムを導入する。
実験によると、AATはAtari、DeepMind Control Suite、Googleのフットボールタスクのメインストリームの敵攻撃ベースラインと一致またはオーバーしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extensive research demonstrates that Deep Reinforcement Learning (DRL) models are susceptible to adversarially constructed inputs (i.e., adversarial examples), which can mislead the agent to take suboptimal or unsafe actions. Recent methods improve attack effectiveness by leveraging future rewards to guide adversarial perturbation generation over sequential time steps (i.e., reward-based attacks). However, these methods are unable to capture dependencies between different time steps in the perturbation generation process, resulting in a weak temporal correlation between the current perturbation and previous perturbations.In this paper, we propose a novel method called Advantage-based Adversarial Transformer (AAT), which can generate adversarial examples with stronger temporal correlations (i.e., time-correlated adversarial examples) to improve the attack performance. AAT employs a multi-scale causal self-attention (MSCSA) mechanism to dynamically capture dependencies between historical information from different time periods and the current state, thus enhancing the correlation between the current perturbation and the previous perturbation. Moreover, AAT introduces a weighted advantage mechanism, which quantifies the effectiveness of a perturbation in a given state and guides the generation process toward high-performance adversarial examples by sampling high-advantage regions. Extensive experiments demonstrate that the performance of AAT matches or surpasses mainstream adversarial attack baselines on Atari, DeepMind Control Suite and Google football tasks.
- Abstract(参考訳): 広範囲にわたる研究は、深層強化学習(DRL)モデルが敵に構築された入力(例えば、敵の例)に影響を受けやすいことを示した。
近年の手法は、今後の報奨を利用して、逐次的時間ステップ(すなわち報酬に基づく攻撃)で敵の摂動を誘導することで、攻撃の有効性を向上させる。
しかし、これらの手法は摂動生成過程における異なる時間ステップ間の依存性を捉えることができず、その結果、現在の摂動と以前の摂動の間には時間的相関が弱く、より強い時間的相関(時間的相関の例)を持つ敵例を生成できるアドバンテージベースの逆変換器(AAT)と呼ばれる新しい手法を提案する。
AATはMSCSA(Multi-scale causal self-attention)機構を用いて、異なる時間周期と現在の状態からの履歴情報間の依存関係を動的にキャプチャし、現在の摂動と以前の摂動の相関性を高める。
さらに、AATは、与えられた状態における摂動の有効性を定量化し、高アドバンテージ領域をサンプリングすることで、高性能な敵例に向けて生成プロセスを導く重み付けの利点機構を導入する。
大規模な実験では、AATのパフォーマンスがAtari、DeepMind Control Suite、Googleのフットボールタスクのメインストリームの敵攻撃ベースラインと一致または上回っていることが示されている。
関連論文リスト
- Temporally Unified Adversarial Perturbations for Time Series Forecasting [1.9116784879310027]
重なり合うサンプルのタイムスタンプ毎に同一の摂動を確保するため, TUAP(Temporally Unified Adversarial Perturbations)を導入する。
また,TUAPを効果的に生成するためのモジュール的かつ効率的なアプローチを提供する,TGAM(Timestamp-wise Gradient Accumulation Method)を提案する。
提案手法は, ホワイトボックスおよびブラックボックス転送攻撃シナリオにおいて, ベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2026-02-12T13:37:45Z) - TFLAG:Towards Practical APT Detection via Deviation-Aware Learning on Temporal Provenance Graph [7.676383564795898]
Advanced Persistent Threat (APT) はますます複雑化し、隠蔽されている。
近年の研究では、証明グラフから詳細な情報を抽出するグラフ学習技術が取り入れられている。
本稿では,高度な異常検出フレームワークであるTFLAGを紹介する。
論文 参考訳(メタデータ) (2025-01-13T01:08:06Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Bidirectional Decoding: Improving Action Chunking via Guided Test-Time Sampling [51.38330727868982]
動作チャンキングが学習者と実証者の間の分岐にどのように影響するかを示す。
動作チャンキングをクローズドループ適応でブリッジするテスト時間推論アルゴリズムである双方向デコーディング(BID)を提案する。
提案手法は、7つのシミュレーションベンチマークと2つの実世界のタスクにまたがって、最先端の2つの生成ポリシーの性能を向上させる。
論文 参考訳(メタデータ) (2024-08-30T15:39:34Z) - Eliminating Catastrophic Overfitting Via Abnormal Adversarial Examples Regularization [50.43319961935526]
SSAT(Single-step adversarial training)は、効率性と堅牢性の両方を達成する可能性を実証している。
SSATは破滅的なオーバーフィッティング(CO)に苦しむが、これは非常に歪んだ分類器に繋がる現象である。
本研究では,SSAT学習ネットワーク上で発生するいくつかの逆の例が異常な振る舞いを示すことを観察する。
論文 参考訳(メタデータ) (2024-04-11T22:43:44Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - SWAP: Exploiting Second-Ranked Logits for Adversarial Attacks on Time
Series [11.356275885051442]
時系列分類(TSC)は、様々な領域において重要な課題となっている。
ディープニューラルモデルは、TSCタスクにおいて優れたパフォーマンスを示している。
TSCモデルは敵攻撃に対して脆弱である。
TSCモデルの新たな攻撃手法であるSWAPを提案する。
論文 参考訳(メタデータ) (2023-09-06T06:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。