論文の概要: Yet Meta Learning Can Adapt Fast, It Can Also Break Easily
- arxiv url: http://arxiv.org/abs/2009.01672v1
- Date: Wed, 2 Sep 2020 15:03:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 18:43:47.617971
- Title: Yet Meta Learning Can Adapt Fast, It Can Also Break Easily
- Title(参考訳): しかし、メタ学習は素早く適応でき、簡単に破ることができる
- Authors: Han Xu, Yaxin Li, Xiaorui Liu, Hui Liu, Jiliang Tang
- Abstract要約: 数発の分類問題の下で,メタ学習に対する敵対的攻撃について検討した。
様々な環境下でのメタ学習に対する最初の攻撃アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 53.65787902272109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta learning algorithms have been widely applied in many tasks for efficient
learning, such as few-shot image classification and fast reinforcement
learning. During meta training, the meta learner develops a common learning
strategy, or experience, from a variety of learning tasks. Therefore, during
meta test, the meta learner can use the learned strategy to quickly adapt to
new tasks even with a few training samples. However, there is still a dark side
about meta learning in terms of reliability and robustness. In particular, is
meta learning vulnerable to adversarial attacks? In other words, would a
well-trained meta learner utilize its learned experience to build wrong or
likely useless knowledge, if an adversary unnoticeably manipulates the given
training set? Without the understanding of this problem, it is extremely risky
to apply meta learning in safety-critical applications. Thus, in this paper, we
perform the initial study about adversarial attacks on meta learning under the
few-shot classification problem. In particular, we formally define key elements
of adversarial attacks unique to meta learning and propose the first attacking
algorithm against meta learning under various settings. We evaluate the
effectiveness of the proposed attacking strategy as well as the robustness of
several representative meta learning algorithms. Experimental results
demonstrate that the proposed attacking strategy can easily break the meta
learner and meta learning is vulnerable to adversarial attacks. The
implementation of the proposed framework will be released upon the acceptance
of this paper.
- Abstract(参考訳): メタ学習アルゴリズムは、画像の少ない分類や高速強化学習など、効率的な学習のための多くのタスクに広く応用されている。
メタトレーニングの間、メタ学習者は様々な学習タスクから共通の学習戦略または経験を開発する。
そのため、メタテストでは、メタ学習者は学習した戦略を用いて新しいタスクに迅速に適応することができる。
しかし、信頼性と堅牢性という点では、メタ学習には暗い面がある。
特に、メタ学習は敵対的攻撃に弱いか?
言い換えれば、よく訓練されたメタ学習者は、学習した経験を使って間違った、あるいはおそらく役に立たない知識を構築するだろうか?
この問題の理解がなければ、メタ学習を安全クリティカルなアプリケーションに適用することは極めて危険である。
そこで本研究では,メタラーニングに対する敵対的攻撃について,数発の分類問題の下で最初の研究を行った。
特に,メタ学習に特有の敵攻撃の重要要素を正式に定義し,様々な条件下でのメタ学習に対する最初の攻撃アルゴリズムを提案する。
提案手法の有効性と,いくつかの代表的なメタ学習アルゴリズムの堅牢性を評価する。
実験の結果,提案手法は容易にメタ学習者を破ることができ,メタ学習は敵の攻撃に弱いことが示された。
本論文の受理により,提案するフレームワークの実装が公表される。
関連論文リスト
- Sampling Attacks on Meta Reinforcement Learning: A Minimax Formulation
and Complexity Analysis [20.11993437283895]
本稿では,この種のセキュリティリスクを理解するためのゲーム理論的基盤を提供する。
我々は、サンプリング攻撃モデルを、攻撃者とエージェントの間のスタックルバーグゲームとして定義し、最小限の定式化をもたらす。
我々は,攻撃者の小さな努力が学習性能を著しく低下させる可能性があることを観察した。
論文 参考訳(メタデータ) (2022-07-29T21:29:29Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Meta-Meta Classification for One-Shot Learning [11.27833234287093]
メタメタ分類(メタメタ分類)と呼ばれる,小さなデータ設定で学習する新しい手法を提案する。
このアプローチでは、学習者の集合を設計するために大量の学習問題を使用し、各学習者は高いバイアスと低い分散を持つ。
本研究では,一対一で一対一の分類課題に対するアプローチの評価を行い,従来のメタラーニングやアンサンブルアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-17T07:05:03Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z) - Meta-Learning across Meta-Tasks for Few-Shot Learning [107.44950540552765]
我々は,メタ・ラーニングを支援するために,メタ・タスク間の関係を活用すべきであり,これらのタスクを戦略的にサンプリングするべきだと論じている。
2種類のメタタスクペアで定義された関係を考察し、それらを活用するための異なる戦略を提案する。
論文 参考訳(メタデータ) (2020-02-11T09:25:13Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。