論文の概要: Game Theoretic Mixed Experts for Combinational Adversarial Machine
Learning
- arxiv url: http://arxiv.org/abs/2211.14669v1
- Date: Sat, 26 Nov 2022 21:35:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 16:51:26.093505
- Title: Game Theoretic Mixed Experts for Combinational Adversarial Machine
Learning
- Title(参考訳): コンビネータ型機械学習のためのゲーム理論的混合エキスパート
- Authors: Ethan Rathbun, Kaleel Mahmood, Sohaib Ahmad, Caiwen Ding, Marten van
Dijk
- Abstract要約: 我々は、敵の攻撃と防御をアンサンブルするためのゲーム理論の枠組みを提供する。
我々のフレームワークはGame Theoretic Mixed Experts (GaME)と呼ばれ、ディフェンダーのためのMixed-Nash戦略を見つけるために設計されている。
この枠組みは、複数の最先端の単一モデル防御よりも、より堅牢な防御の集合を創出することを示す。
- 参考スコア(独自算出の注目度): 10.368343314144553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in adversarial machine learning have shown that defenses
considered to be robust are actually susceptible to adversarial attacks which
are specifically tailored to target their weaknesses. These defenses include
Barrage of Random Transforms (BaRT), Friendly Adversarial Training (FAT), Trash
is Treasure (TiT) and ensemble models made up of Vision Transformers (ViTs),
Big Transfer models and Spiking Neural Networks (SNNs). A natural question
arises: how can one best leverage a combination of adversarial defenses to
thwart such attacks? In this paper, we provide a game-theoretic framework for
ensemble adversarial attacks and defenses which answers this question. In
addition to our framework we produce the first adversarial defense
transferability study to further motivate a need for combinational defenses
utilizing a diverse set of defense architectures. Our framework is called Game
theoretic Mixed Experts (GaME) and is designed to find the Mixed-Nash strategy
for a defender when facing an attacker employing compositional adversarial
attacks. We show that this framework creates an ensemble of defenses with
greater robustness than multiple state-of-the-art, single-model defenses in
addition to combinational defenses with uniform probability distributions.
Overall, our framework and analyses advance the field of adversarial machine
learning by yielding new insights into compositional attack and defense
formulations.
- Abstract(参考訳): 敵の機械学習の最近の進歩は、堅牢であると考えられる防御は、その弱点を狙うように特別に調整された敵の攻撃の影響を受けやすいことを示している。
これらの防衛には、BaRT(Barrage of Random Transforms)、FAT(Friendly Adversarial Training)、Trash is Treasure(TiT)、ViT(Vision Transformers)、Big Transfer(Big Transfer)モデル、SNN(Spike Neural Networks)で構成されるアンサンブルモデルが含まれる。
そのような攻撃を阻止するために、どうやって敵の防御の組み合わせを最大限に活用できるのか?
本稿では,この疑問に答える敵攻撃と防衛をアンサンブルするためのゲーム理論フレームワークを提案する。
我々のフレームワークに加えて、我々は、多様な防衛アーキテクチャを利用する組み合わせ防衛の必要性をさらに高めるために、最初の敵対的防衛伝達可能性研究を作成しました。
我々のフレームワークはゲーム理論混合エキスパート (GaME) と呼ばれ、構成的敵攻撃による攻撃に直面するとき、ディフェンダーの混合ナッシュ戦略を見つけるように設計されている。
この枠組みは, 統一確率分布と組み合わせた防御に加えて, 複数の最先端の単一モデル防御よりも頑健な防御の集合を生成する。
全体として、我々のフレームワークと分析は、構成的攻撃と防御の定式化に新たな洞察を与えることで、敵対的機械学習の分野を前進させます。
関連論文リスト
- Position: Towards Resilience Against Adversarial Examples [42.09231029292568]
我々は、敵の弾力性の定義と、敵の弾力性のある防御を設計する方法について概観する。
次に, 対向弾性のサブプロブレムを導入し, 連続適応ロバストネス(continuousal adapt robustness)と呼ぶ。
本研究では, 連続適応ロバストネスと, マルチアタックロバストネスと予期せぬアタックロバストネスの関連性を実証する。
論文 参考訳(メタデータ) (2024-05-02T14:58:44Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - Ares: A System-Oriented Wargame Framework for Adversarial ML [3.197282271064602]
Aresは、現実的なウォーゲームのような環境で、研究者が攻撃や防御を探索できる敵MLの評価フレームワークである。
アレスは、攻撃者とディフェンダーの間の対立を、反対の目的を持つ強化学習環境における2つのエージェントとして表している。
これにより、障害発生までの時間や複雑な戦略の評価など、システムレベルの評価指標が導入される。
論文 参考訳(メタデータ) (2022-10-24T04:55:18Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Adversarial defenses via a mixture of generators [0.0]
敵対的な例は、深層学習システムの比較的弱い特徴として残っています。
本研究では,複数の敵攻撃を同時に行うことで,このようなシステムを監督せずに訓練することが可能であることを示す。
本システムでは,MNISTデータセットのアタックやデータラベルを使用せずに,未確認例のクラス情報を復元することができる。
論文 参考訳(メタデータ) (2021-10-05T21:27:50Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。