論文の概要: Classification under strategic adversary manipulation using pessimistic bilevel optimisation
- arxiv url: http://arxiv.org/abs/2410.20284v1
- Date: Sat, 26 Oct 2024 22:27:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:20:49.718181
- Title: Classification under strategic adversary manipulation using pessimistic bilevel optimisation
- Title(参考訳): 悲観的二段階最適化を用いた戦略的敵操作下の分類
- Authors: David Benfield, Stefano Coniglio, Martin Kunc, Phan Tu Vuong, Alain Zemkoho,
- Abstract要約: 敵対的機械学習は、学習者が活発な敵からの攻撃に直面している状況に対処する。
このようなシナリオはスパムメールフィルタリング、マルウェア検出、偽画像生成などのアプリケーションで発生する。
学習者と敵対者の相互作用をゲームとしてモデル化し、悲観的二段階最適化問題として問題を定式化する。
- 参考スコア(独自算出の注目度): 2.6505619784178047
- License:
- Abstract: Adversarial machine learning concerns situations in which learners face attacks from active adversaries. Such scenarios arise in applications such as spam email filtering, malware detection and fake-image generation, where security methods must be actively updated to keep up with the ever improving generation of malicious data.We model these interactions between the learner and the adversary as a game and formulate the problem as a pessimistic bilevel optimisation problem with the learner taking the role of the leader. The adversary, modelled as a stochastic data generator, takes the role of the follower, generating data in response to the classifier. While existing models rely on the assumption that the adversary will choose the least costly solution leading to a convex lower-level problem with a unique solution, we present a novel model and solution method which do not make such assumptions. We compare these to the existing approach and see significant improvements in performance suggesting that relaxing these assumptions leads to a more realistic model.
- Abstract(参考訳): 敵対的機械学習は、学習者が活発な敵からの攻撃に直面している状況に対処する。
このようなシナリオは、スパムメールフィルタリング、マルウェア検出、偽画像生成などのアプリケーションで発生し、悪意のあるデータの生成を継続的に改善するためにセキュリティメソッドを積極的に更新する必要がある。
相手は確率データ生成器としてモデル化され、従者の役割を担い、分類器に応答してデータを生成する。
既存のモデルは、一意解の凸低レベル問題につながる最小のコストの解を敵が選ぶという仮定に依存するが、そのような仮定をしない新しいモデルと解法を提案する。
これらの仮定を既存のアプローチと比較すると、パフォーマンスが大幅に向上していることから、これらの仮定の緩和がより現実的なモデルにつながることが示唆されます。
関連論文リスト
- Deep autoregressive density nets vs neural ensembles for model-based
offline reinforcement learning [2.9158689853305693]
本稿では、利用可能なデータからシステムダイナミクスを推定し、仮想モデルロールアウトにおけるポリシー最適化を行うモデルベース強化学習アルゴリズムについて考察する。
このアプローチは、実際のシステムで破滅的な失敗を引き起こす可能性のあるモデルエラーを悪用することに対して脆弱である。
D4RLベンチマークの1つのよく校正された自己回帰モデルにより、より良い性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-05T10:18:15Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Introducing Foundation Models as Surrogate Models: Advancing Towards
More Practical Adversarial Attacks [15.882687207499373]
箱なしの敵攻撃は、AIシステムにとってより実用的で難しいものになりつつある。
本稿では,サロゲートモデルとして基礎モデルを導入することにより,逆攻撃を下流タスクとして再放送する。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Graceful Degradation and Related Fields [0.0]
優雅な劣化は、アウト・オブ・ディストリビューションデータに遭遇するモデルパフォーマンスの最適化を指す。
この研究は、優雅な劣化の定義と議論であり、どのようにデプロイされた視覚システムに適用できるかを示す。
論文 参考訳(メタデータ) (2021-06-21T13:56:41Z) - Social NCE: Contrastive Learning of Socially-aware Motion
Representations [87.82126838588279]
実験結果から, 提案手法は最近の軌道予測, 行動クローニング, 強化学習アルゴリズムの衝突速度を劇的に低減することがわかった。
本手法は,ニューラルネットワークの設計に関する仮定をほとんど示さないため,神経運動モデルのロバスト性を促進する汎用的手法として使用できる。
論文 参考訳(メタデータ) (2020-12-21T22:25:06Z) - Linear Classifiers that Encourage Constructive Adaptation [6.324366770332667]
本研究では,2段階ゲームとしての予測と適応のダイナミクスを考察し,モデルデザイナとその決定対象に対する最適な戦略を特徴付ける。
シミュレーションおよび実世界のデータセットのベンチマークでは、我々の手法を用いて訓練された分類器が既存の手法の精度を維持しつつ、より高いレベルの改善と少ない操作を誘導していることがわかった。
論文 参考訳(メタデータ) (2020-10-31T20:35:32Z) - Query-Free Adversarial Transfer via Undertrained Surrogates [14.112444998191698]
本研究では,ブラックボックス環境における敵攻撃の有効性を改善するための新しい手法を提案する。
本稿では, この手法がアーキテクチャ全体にわたって良好に伝達し, 最先端の手法よりも広いマージンで性能を向上することを示す。
論文 参考訳(メタデータ) (2020-07-01T23:12:22Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。