論文の概要: Defensive Few-shot Learning
- arxiv url: http://arxiv.org/abs/1911.06968v2
- Date: Fri, 25 Aug 2023 11:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 18:38:33.835956
- Title: Defensive Few-shot Learning
- Title(参考訳): 防御的少数ショット学習
- Authors: Wenbin Li, Lei Wang, Xingxing Zhang, Lei Qi, Jing Huo, Yang Gao and
Jiebo Luo
- Abstract要約: 本稿では,防御的数発学習という新たな課題について検討する。
敵の攻撃に対して頑丈な数発のモデルを学習することを目的としている。
提案したフレームワークは、既存の数発のモデルを敵攻撃に対して効果的に堅牢にすることができる。
- 参考スコア(独自算出の注目度): 77.82113573388133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates a new challenging problem called defensive few-shot
learning in order to learn a robust few-shot model against adversarial attacks.
Simply applying the existing adversarial defense methods to few-shot learning
cannot effectively solve this problem. This is because the commonly assumed
sample-level distribution consistency between the training and test sets can no
longer be met in the few-shot setting. To address this situation, we develop a
general defensive few-shot learning (DFSL) framework to answer the following
two key questions: (1) how to transfer adversarial defense knowledge from one
sample distribution to another? (2) how to narrow the distribution gap between
clean and adversarial examples under the few-shot setting? To answer the first
question, we propose an episode-based adversarial training mechanism by
assuming a task-level distribution consistency to better transfer the
adversarial defense knowledge. As for the second question, within each few-shot
task, we design two kinds of distribution consistency criteria to narrow the
distribution gap between clean and adversarial examples from the feature-wise
and prediction-wise perspectives, respectively. Extensive experiments
demonstrate that the proposed framework can effectively make the existing
few-shot models robust against adversarial attacks. Code is available at
https://github.com/WenbinLee/DefensiveFSL.git.
- Abstract(参考訳): 本稿では,攻撃的攻撃に対するロバストな少数ショットモデルを学ぶために,防御的少数ショット学習と呼ばれる新たな課題について検討する。
既存の敵防衛手法を数発学習に適用するだけでは、この問題を効果的に解決できない。
これは、トレーニングとテストセット間の一般的に想定されるサンプルレベルの分布一貫性が、数ショット設定ではもはや満たされないためである。
この状況に対処するために,(1) 対人防御知識を一方のサンプル分布から他方のサンプル分布へ伝達する方法の2つの重要な疑問に答える汎用的な防御的数ショットラーニング(DFSL)フレームワークを開発した。
2) 複数ショット設定下での清潔な事例と敵対的な事例の分布ギャップを狭める方法
最初の疑問に答えるために,課題レベルの分散一貫性を仮定し,対人防御知識の伝達を改善することによるエピソードベースの対人訓練機構を提案する。
第2の質問では,2種類の分布整合性基準を設計し,クリーンな例と逆向きな例の分布ギャップを,機能的視点と予測的視点でそれぞれ狭めている。
広範な実験により、提案フレームワークは、既存の少数ショットモデルを敵の攻撃に対して効果的に堅牢化できることが示されている。
コードはhttps://github.com/WenbinLee/DefensiveFSL.gitで入手できる。
関連論文リスト
- Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Understanding and Improving Ensemble Adversarial Defense [4.504026914523449]
我々は、アンサンブルの防御を理解するための新しい誤り理論を開発した。
我々は,対話的グローバル対人訓練(iGAT)という,アンサンブル対人防御を改善する効果的なアプローチを提案する。
iGATは、ホワイトボックスとブラックボックスの両方の攻撃下で、CIFAR10とCIFAR100データセットを使用して評価された最大17%のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2023-10-27T20:43:29Z) - Among Us: Adversarially Robust Collaborative Perception by Consensus [50.73128191202585]
複数のロボットは、シーン(例えば物体)を個人よりも協調的に知覚することができる。
本稿では,未知の攻撃者に対して一般化可能な新しいサンプリングベース防衛戦略であるROBOSACを提案する。
自律運転シナリオにおける協調3次元物体検出の課題に対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-16T17:15:25Z) - Scalable Attribution of Adversarial Attacks via Multi-Task Learning [11.302242821058865]
敵帰属問題(Adversarial Attribution Problem, AAP)は、敵の例を生成するために用いられる。
MTAA(Multi-Task Adversarial Attribution)というマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-25T12:27:44Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - On the Limitations of Stochastic Pre-processing Defenses [42.80542472276451]
敵の例に対する防御は依然として未解決の問題である。
推論におけるランダム性は、逆入力を見つけるコストを増大させるという考え方が一般的である。
本稿では,そのような前処理の防御について検討し,その欠陥を実証する。
論文 参考訳(メタデータ) (2022-06-19T21:54:42Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。