論文の概要: Adversarial training with restricted data manipulation
- arxiv url: http://arxiv.org/abs/2510.03254v1
- Date: Fri, 26 Sep 2025 09:17:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-12 15:03:05.806199
- Title: Adversarial training with restricted data manipulation
- Title(参考訳): 制限データ操作による対人訓練
- Authors: David Benfield, Stefano Coniglio, Phan Tu Vuong, Alain Zemkoho,
- Abstract要約: 悲観的二水準最適化は、敵に対するレジリエントな分類器を訓練する効果的な方法であることが示されている。
制約付き悲観的二段階最適化モデルを提案する。
実験を通じて、このモデルが既存のアプローチよりも平均して優れていることを示す。
- 参考スコア(独自算出の注目度): 2.3507462809293953
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial machine learning concerns situations in which learners face attacks from active adversaries. Such scenarios arise in applications such as spam email filtering, malware detection and fake image generation, where security methods must be actively updated to keep up with the everimproving generation of malicious data. Pessimistic Bilevel optimisation has been shown to be an effective method of training resilient classifiers against such adversaries. By modelling these scenarios as a game between the learner and the adversary, we anticipate how the adversary will modify their data and then train a resilient classifier accordingly. However, since existing pessimistic bilevel approaches feature an unrestricted adversary, the model is vulnerable to becoming overly pessimistic and unrealistic. When finding the optimal solution that defeats the classifier, it is possible that the adversary's data becomes nonsensical and loses its intended nature. Such an adversary will not properly reflect reality, and consequently, will lead to poor classifier performance when implemented on real-world data. By constructing a constrained pessimistic bilevel optimisation model, we restrict the adversary's movements and identify a solution that better reflects reality. We demonstrate through experiments that this model performs, on average, better than the existing approach.
- Abstract(参考訳): 敵対的機械学習は、学習者が活発な敵からの攻撃に直面している状況に対処する。
このようなシナリオは、スパムメールフィルタリング、マルウェア検出、偽画像生成などのアプリケーションで発生し、悪意のあるデータの生成を継続的に改善するために、セキュリティメソッドを積極的に更新する必要がある。
悲観的二水準最適化は、そのような敵に対して弾力的な分類器を訓練する効果的な方法であることが示されている。
これらのシナリオを学習者と敵のゲームとしてモデル化することにより、敵がデータをどう修正するかを予測し、それに応じて回復力のある分類器を訓練する。
しかし、既存の悲観的双レベルアプローチは非制限の敵を特徴としているため、モデルは過度に悲観的かつ非現実的になるには弱い。
分類器を倒す最適解を見つけると、相手のデータは無意味になり、意図した性質を失う可能性がある。
このような敵は現実を適切に反映しないため、現実世界のデータに実装された場合、分類器の性能は低下する。
制約付き悲観的二段階最適化モデルを構築することにより、敵の動きを制限し、現実をよりよく反映した解を同定する。
実験を通じて、このモデルが既存のアプローチよりも平均して優れていることを示す。
関連論文リスト
- Countering adversarial evasion in regression analysis [0.7136933021609079]
敵の回避は、敵がデータを適応して、確立した予測モデルから特定の結果に影響を与えるシナリオを考える。
本稿では,回帰シナリオに対する悲観的二段階最適化プログラムを提案する。
論文 参考訳(メタデータ) (2025-09-26T09:35:26Z) - Classification under strategic adversary manipulation using pessimistic bilevel optimisation [2.6505619784178047]
敵対的機械学習は、学習者が活発な敵からの攻撃に直面している状況に対処する。
このようなシナリオはスパムメールフィルタリング、マルウェア検出、偽画像生成などのアプリケーションで発生する。
学習者と敵対者の相互作用をゲームとしてモデル化し、悲観的二段階最適化問題として問題を定式化する。
論文 参考訳(メタデータ) (2024-10-26T22:27:21Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - ATRO: Adversarial Training with a Rejection Option [10.36668157679368]
本稿では, 逆例による性能劣化を軽減するために, 拒否オプション付き分類フレームワークを提案する。
分類器と拒否関数を同時に適用することにより、テストデータポイントの分類に自信が不十分な場合に分類を控えることができる。
論文 参考訳(メタデータ) (2020-10-24T14:05:03Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。