論文の概要: FLARE: Fingerprinting Deep Reinforcement Learning Agents using Universal
Adversarial Masks
- arxiv url: http://arxiv.org/abs/2307.14751v3
- Date: Mon, 25 Sep 2023 11:24:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 01:41:02.741724
- Title: FLARE: Fingerprinting Deep Reinforcement Learning Agents using Universal
Adversarial Masks
- Title(参考訳): FLARE:Universal Adversarial Masksを用いた深部強化学習エージェントの指紋化
- Authors: Buse G. A. Tekgul, N. Asokan
- Abstract要約: FLAREは、疑わしいDeep Reinforcement Learning(DRL)ポリシーが他の(被害者)ポリシーの不正コピーであるかどうかを検証する最初のメカニズムである。
まず、被害者の方針から修正版へ移行できるが、個別に訓練された方針ではない敵の例を生成するために、移動不能で普遍的な敵のマスクを見つけることができることを示す。
我々は、FLAREが有効であること(盗難コピーに対する100%のアクション)、かつ、独立ポリシーを誤認しないこと(偽陽性ではない)を示す。
- 参考スコア(独自算出の注目度): 15.489294168841878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose FLARE, the first fingerprinting mechanism to verify whether a
suspected Deep Reinforcement Learning (DRL) policy is an illegitimate copy of
another (victim) policy. We first show that it is possible to find
non-transferable, universal adversarial masks, i.e., perturbations, to generate
adversarial examples that can successfully transfer from a victim policy to its
modified versions but not to independently trained policies. FLARE employs
these masks as fingerprints to verify the true ownership of stolen DRL policies
by measuring an action agreement value over states perturbed by such masks. Our
empirical evaluations show that FLARE is effective (100% action agreement on
stolen copies) and does not falsely accuse independent policies (no false
positives). FLARE is also robust to model modification attacks and cannot be
easily evaded by more informed adversaries without negatively impacting agent
performance. We also show that not all universal adversarial masks are suitable
candidates for fingerprints due to the inherent characteristics of DRL
policies. The spatio-temporal dynamics of DRL problems and sequential
decision-making process make characterizing the decision boundary of DRL
policies more difficult, as well as searching for universal masks that capture
the geometry of it.
- Abstract(参考訳): 疑わしいDeep Reinforcement Learning(DRL)ポリシーが、他の(被害者)ポリシーの不正コピーであるかどうかを検証するための最初の指紋認証機構であるFLAREを提案する。
まず,非伝達性で普遍的な敵マスク(摂動)を見つけることで,被害者の方針から修正版への移行を成功させるが,個別に訓練された方針には適用できない敵の例を生成できることを示す。
FLAREはこれらのマスクを指紋として使用し、そのようなマスクによって妨害された状態に対するアクション合意値を測定することによって、盗まれたDRLポリシーの真の所有権を検証する。
実験により,FLAREが有効であること(盗難コピーに対する100%のアクション合意)と,独立政策を誤認しないこと(偽陽性)が示唆された。
flareはモデル修正攻撃にも頑健であり、エージェントのパフォーマンスに悪影響を及ぼすことなく、よりインフォームドな敵に簡単に回避できない。
また,drlポリシーの特徴から,すべての普遍的な敵用マスクが指紋の候補であるとは限らない。
DRL問題と逐次決定過程の時空間的ダイナミクスは、DRLポリシーの決定境界をより困難にし、また、その幾何学を捉える普遍マスクを探索する。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Diffusion Policy Attacker: Crafting Adversarial Attacks for Diffusion-based Policies [13.22130497099424]
拡散モデル(DM)は行動クローニング(BC)の有望なアプローチとして登場した。
政策創出の基盤としてDPの採用が増加しているにもかかわらず、安全の重大な問題は未解決のままである。
本稿では,DP-Attackerを提案する。DP-Attackerは,全てのシナリオにまたがる効果的な敵攻撃を実現するアルゴリズムである。
論文 参考訳(メタデータ) (2024-05-29T18:06:25Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Initiative Defense against Facial Manipulation [82.96864888025797]
本稿では,悪意あるユーザによって制御される顔操作モデルの性能を低下させるための,イニシアティブ・ディフェンスの新しい枠組みを提案する。
まず、サロゲートモデルを用いてターゲット操作モデルを模倣し、次に毒の摂動発生器を考案し、所望の毒を得る。
論文 参考訳(メタデータ) (2021-12-19T09:42:28Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Partial Attack Supervision and Regional Weighted Inference for Masked
Face Presentation Attack Detection [5.71864964818217]
マスクを着用することはSARS-CoV-2の感染を防ぐ最も効果的な方法の1つであることが証明されている。
マスクフェイスPADに直面する主な問題は、不正に分類されたボナフェイドのマスクと、不正に分類された部分攻撃である。
本研究では,PADモデルトレーニングを監督する部分攻撃ラベルと,PAD性能を改善するための地域重み付き推論を提案する。
論文 参考訳(メタデータ) (2021-11-08T08:53:46Z) - Real-time Attacks Against Deep Reinforcement Learning Policies [14.085247099075628]
本稿では,DRL ポリシーを騙す新たな攻撃法を提案する。
我々は,UAP法を用いて,適用対象の個々の入力に依存しない効果的な摂動を計算する。
論文 参考訳(メタデータ) (2021-06-16T12:44:59Z) - Multi-Dataset Benchmarks for Masked Identification using Contrastive
Representation Learning [0.0]
新型コロナウイルスのパンデミックは世界中で受け入れられた基準を大きく変えた。
パスポート、運転免許証、国籍カードなどの公式文書には、完全な顔画像が登録されている。
空港やセキュリティチェックポイントでは、マスクの取り外しを依頼するのではなく、識別文書の未マスク画像とマスク付き人物とを一致させる方が安全である。
本稿では,マスクとマスクのない顔マッチングに特化した,視覚表現学習に基づく事前学習ワークフローを提案する。
論文 参考訳(メタデータ) (2021-06-10T08:58:10Z) - Uncertainty-Aware Physically-Guided Proxy Tasks for Unseen Domain Face
Anti-spoofing [128.32381246318954]
Face Anti-Spoofing (FAS)は、偽の顔と偽の顔とを区別しようと試みている。
そこで本研究では,未確認領域のより高度な一般化を実現するために,物理手法を活用することを提案する。
論文 参考訳(メタデータ) (2020-11-28T03:22:26Z) - A Closer Look at Invalid Action Masking in Policy Gradient Algorithms [0.0]
ディープ強化学習アルゴリズムは、多くの挑戦的な戦略ゲームにおいて最先端のパフォーマンスを達成した。
これらのゲームには複雑なルールがあるため、学習ポリシーによって予測される完全な離散的なアクション分布からサンプリングされたアクションは、ゲームルールに従って無効になる可能性が高い。
ポリシー勾配アルゴリズムでこの問題に対処する一般的なアプローチは、無効なアクションを"マスクアウト"し、有効なアクションのセットからのみサンプリングすることです。
論文 参考訳(メタデータ) (2020-06-25T04:47:09Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。