論文の概要: Backdoor Detection in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2202.03609v1
- Date: Tue, 8 Feb 2022 02:49:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 13:44:44.163320
- Title: Backdoor Detection in Reinforcement Learning
- Title(参考訳): 強化学習におけるバックドア検出
- Authors: Junfeng Guo, Ang Li, Cong Liu
- Abstract要約: 本稿では,この安全性の脆弱性に対処するために,RLバックドア検出の問題点を提案する。
この観測から着想を得て, トロイの木馬エージェントに近似的なトリガ動作を求めるための強化学習ソリューションTrojanSeekerを提案する。
- 参考スコア(独自算出の注目度): 20.549251685977502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the real world application of reinforcement learning (RL) is becoming
popular, the safety concern and the robustness of an RL system require more
attention. A recent work reveals that, in a multi-agent RL environment,
backdoor trigger actions can be injected into a victim agent (a.k.a. trojan
agent), which can result in a catastrophic failure as soon as it sees the
backdoor trigger action. We propose the problem of RL Backdoor Detection,
aiming to address this safety vulnerability. An interesting observation we drew
from extensive empirical studies is a trigger smoothness property where normal
actions similar to the backdoor trigger actions can also trigger low
performance of the trojan agent. Inspired by this observation, we propose a
reinforcement learning solution TrojanSeeker to find approximate trigger
actions for the trojan agents, and further propose an efficient approach to
mitigate the trojan agents based on machine unlearning. Experiments show that
our approach can correctly distinguish and mitigate all the trojan agents
across various types of agents and environments.
- Abstract(参考訳): 実世界の強化学習(RL)が普及しつつある一方で,RLシステムの安全性や堅牢性には注意が必要である。
最近の研究によると、マルチエージェントのRL環境では、バックドアトリガーアクションが被害者のエージェント(すなわちトロイの木馬のエージェント)に注入され、バックドアトリガーアクションを見ると破滅的な失敗を引き起こす可能性がある。
我々は,この安全性脆弱性に対処するために,rlバックドア検出の問題を提案する。
広範な実証実験から得られた興味深い観察は、バックドアトリガー動作と同様の正常な作用がトロヤン剤の低性能を惹起するトリガー滑らか性である。
本研究は, トロイの木馬エージェントに近似的なトリガー動作を求めるための強化学習ソリューションであるTrojanSeekerを提案し, さらに, マシン・アンラーニングに基づくトロイの木馬エージェントの軽減のための効率的なアプローチを提案する。
実験により,すべてのトロイの木馬エージェントを,様々な種類のエージェントや環境にまたがって正しく識別し緩和できることを示した。
関連論文リスト
- Watch Out for Your Agents! Investigating Backdoor Threats to LLM-Based
Agents [50.034049716274005]
我々は、LSMベースのエージェントに対して、典型的な安全脅威であるバックドアアタックの1つを調査する第一歩を踏み出した。
まず、エージェントバックドア攻撃の一般的な枠組みを定式化し、その後、エージェントバックドア攻撃の様々な形態について徹底的に分析する。
本稿では,2つの典型的なエージェント・タスクに対するエージェント・バックドア・アタックのバリエーションを実装するためのデータ中毒機構を提案する。
論文 参考訳(メタデータ) (2024-02-17T06:48:45Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Mitigation by Correcting the Distribution of Neural Activations [30.554700057079867]
バックドア(トロイジャン)攻撃はディープニューラルネットワーク(DNN)に対する敵対的攻撃の重要なタイプである
バックドア攻撃の重要な特性を解析し、バックドア・トリガー・インスタンスの内部層活性化の分布の変化を引き起こす。
本稿では,分散変化を補正し,学習後のバックドア緩和を効果的かつ効果的に行う方法を提案する。
論文 参考訳(メタデータ) (2023-08-18T22:52:29Z) - Recover Triggered States: Protect Model Against Backdoor Attack in
Reinforcement Learning [23.94769537680776]
バックドア攻撃は、悪意のあるユーザーが環境を操作したり、トレーニングデータを破損させたりすることで、トレーニングされたエージェントにバックドアを挿入することができる。
本稿では,バックドア攻撃から被害者エージェントを効果的に保護する新しい手法であるリカバリトリガードステイト(RTS)手法を提案する。
論文 参考訳(メタデータ) (2023-04-01T08:00:32Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Backdoors Stuck At The Frontdoor: Multi-Agent Backdoor Attacks That
Backfire [8.782809316491948]
複数の攻撃者が同時に被害者モデルをバックドアしようとするマルチエージェントバックドア攻撃シナリオについて検討する。
エージェントが集団攻撃の成功率の低いゲームで一貫したバックファイリング現象が観察される。
その結果,実践環境におけるバックドア・ディフェンス研究の再評価の動機となった。
論文 参考訳(メタデータ) (2022-01-28T16:11:40Z) - CatchBackdoor: Backdoor Testing by Critical Trojan Neural Path
Identification via Differential Fuzzing [10.195729680573775]
現実世界のアプリケーションにおけるディープニューラルネットワーク(DNN)の成功は、豊富な事前学習モデルの恩恵を受けている。
バックドアで事前訓練されたモデルは、下流DNNの展開に重大なトロイの木馬の脅威をもたらす可能性がある。
この作業は、DNNのバックドアテストの定式化と、CatchBackdoorフレームワークの提案である。
論文 参考訳(メタデータ) (2021-12-24T13:57:03Z) - BACKDOORL: Backdoor Attack against Competitive Reinforcement Learning [80.99426477001619]
バックドア攻撃を複数のエージェントを含むより複雑なRLシステムに移行する。
概念実証として、敵のエージェントが被害者エージェントのバックドアを独自のアクションでトリガーできることを実証します。
その結果, バックドアが作動すると, 有効でない場合と比較して, 被害者の勝利率は17%から37%に低下することがわかった。
論文 参考訳(メタデータ) (2021-05-02T23:47:55Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。