論文の概要: BARReL: Bottleneck Attention for Adversarial Robustness in Vision-Based
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2208.10481v1
- Date: Mon, 22 Aug 2022 17:54:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 12:18:39.071980
- Title: BARReL: Bottleneck Attention for Adversarial Robustness in Vision-Based
Reinforcement Learning
- Title(参考訳): BARReL:視覚による強化学習における対人ロバストネスに対するボトルネック注意
- Authors: Eugene Bykovets, Yannick Metz, Mennatallah El-Assady, Daniel A. Keim,
Joachim M. Buhmann
- Abstract要約: 本研究では、視力に基づく強化学習エージェントの、勾配に基づく敵攻撃に対する感受性について検討する。
本稿では,学習した注意マップを用いて,畳み込み層の活性化を回復する方法を示す。
多くのRL環境において、BAMで強化されたアーキテクチャは推論中にロバスト性を高めた。
- 参考スコア(独自算出の注目度): 20.468991996052953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness to adversarial perturbations has been explored in many areas of
computer vision. This robustness is particularly relevant in vision-based
reinforcement learning, as the actions of autonomous agents might be
safety-critic or impactful in the real world. We investigate the susceptibility
of vision-based reinforcement learning agents to gradient-based adversarial
attacks and evaluate a potential defense. We observe that Bottleneck Attention
Modules (BAM) included in CNN architectures can act as potential tools to
increase robustness against adversarial attacks. We show how learned attention
maps can be used to recover activations of a convolutional layer by restricting
the spatial activations to salient regions. Across a number of RL environments,
BAM-enhanced architectures show increased robustness during inference. Finally,
we discuss potential future research directions.
- Abstract(参考訳): 敵の摂動に対するロバスト性はコンピュータビジョンの多くの領域で研究されている。
この堅牢性は視覚に基づく強化学習に特に関係しており、自律的なエージェントの行動は、現実世界では安全性に批判的か影響を受けやすい。
視覚ベースの強化学習エージェントの勾配に基づく敵攻撃に対する感受性を調査し,潜在的な防御性を評価する。
我々は、CNNアーキテクチャに含まれるBottleneck Attention Modules(BAM)が、敵攻撃に対する堅牢性を高める潜在的なツールとして機能することを観察した。
本研究では,学習した注意マップを用いて空間的活性化を正常な領域に制限することにより,畳み込み層の活性化を回復する方法を示す。
多くのRL環境において、BAMで強化されたアーキテクチャは推論中にロバスト性を高める。
最後に,今後の研究の方向性について論じる。
関連論文リスト
- Towards Transferable Attacks Against Vision-LLMs in Autonomous Driving with Typography [21.632703081999036]
Vision-Large-Language-Models (Vision-LLMs)は、自律走行(AD)システムに統合されつつある。
我々は,ビジョンLLMの意思決定能力に頼って,ADシステムに対するタイポグラフィー攻撃を活用することを提案する。
論文 参考訳(メタデータ) (2024-05-23T04:52:02Z) - Embodied Active Defense: Leveraging Recurrent Feedback to Counter Adversarial Patches [37.317604316147985]
敵のパッチに対するディープニューラルネットワークの脆弱性は、モデルロバスト性を高めるための多くの防衛戦略を動機付けている。
本研究では,環境情報を積極的に文脈化して,現実の3次元環境における不整合に対処するEmbodied Active Defense (EAD) を開発した。
論文 参考訳(メタデータ) (2024-03-31T03:02:35Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - FACADE: A Framework for Adversarial Circuit Anomaly Detection and
Evaluation [9.025997629442896]
FACADEは、ディープニューラルネットワークにおける教師なしの機械的異常検出のために設計されている。
我々のアプローチは、モデルの堅牢性を改善し、スケーラブルなモデル監視を強化し、現実のデプロイメント環境で有望なアプリケーションを実証することを目指している。
論文 参考訳(メタデータ) (2023-07-20T04:00:37Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Exploring Adversarial Attacks and Defenses in Vision Transformers
trained with DINO [0.0]
本研究は、DINOを用いた自己監督型ビジョントランスフォーマーに対する敵攻撃に対する堅牢性の最初の分析を行う。
まず,自己超越によって学習される特徴が,教師付き学習から生まれる特徴よりも敵攻撃に対して堅牢であるか否かを評価する。
次に、潜伏空間における攻撃に起因した特性を示す。
論文 参考訳(メタデータ) (2022-06-14T11:20:16Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。