論文の概要: Countering adversarial evasion in regression analysis
- arxiv url: http://arxiv.org/abs/2509.22113v1
- Date: Fri, 26 Sep 2025 09:35:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.336254
- Title: Countering adversarial evasion in regression analysis
- Title(参考訳): 回帰分析における対向回避対策
- Authors: David Benfield, Phan Tu Vuong, Alain Zemkoho,
- Abstract要約: 敵の回避は、敵がデータを適応して、確立した予測モデルから特定の結果に影響を与えるシナリオを考える。
本稿では,回帰シナリオに対する悲観的二段階最適化プログラムを提案する。
- 参考スコア(独自算出の注目度): 0.7136933021609079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial machine learning challenges the assumption that the underlying distribution remains consistent throughout the training and implementation of a prediction model. In particular, adversarial evasion considers scenarios where adversaries adapt their data to influence particular outcomes from established prediction models, such scenarios arise in applications such as spam email filtering, malware detection and fake-image generation, where security methods must be actively updated to keep up with the ever-improving generation of malicious data. Game theoretic models have been shown to be effective at modelling these scenarios and hence training resilient predictors against such adversaries. Recent advancements in the use of pessimistic bilevel optimsiation which remove assumptions about the convexity and uniqueness of the adversary's optimal strategy have proved to be particularly effective at mitigating threats to classifiers due to its ability to capture the antagonistic nature of the adversary. However, this formulation has not yet been adapted to regression scenarios. This article serves to propose a pessimistic bilevel optimisation program for regression scenarios which makes no assumptions on the convexity or uniqueness of the adversary's solutions.
- Abstract(参考訳): 逆機械学習は、予測モデルのトレーニングと実装を通じて基礎となる分布が一貫しているという仮定に挑戦する。
特に、敵がデータを適応して、確立した予測モデルから特定の結果に影響を与えるシナリオを考えると、このようなシナリオはスパムメールのフィルタリング、マルウェア検出、偽画像生成といったアプリケーションで発生し、セキュリティメソッドを積極的に更新する必要がある。
ゲーム理論モデルはこれらのシナリオをモデル化し、従ってそのような敵に対して回復力のある予測器を訓練するのに効果的であることが示されている。
敵の最適戦略の凸性や特異性に関する仮定を除去する悲観的二段階最適化の最近の進歩は、敵の敵の敵対的性質を捉える能力により、分類者への脅威を軽減するのに特に有効であることが証明されている。
しかし、この定式化はまだ回帰シナリオに適応していない。
本稿では,敵の解の凸性や一意性を仮定しない回帰シナリオに対する悲観的二段階最適化プログラムを提案する。
関連論文リスト
- Preliminary Investigation into Uncertainty-Aware Attack Stage Classification [81.28215542218724]
この研究は、不確実性の下での攻撃段階推論の問題に対処する。
Evidential Deep Learning (EDL) に基づく分類手法を提案し、ディリクレ分布のパラメータを可能な段階に出力することで予測の不確実性をモデル化する。
シミュレーション環境における予備実験により,提案モデルが精度良く攻撃の段階を推定できることが実証された。
論文 参考訳(メタデータ) (2025-08-01T06:58:00Z) - Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - Classification under strategic adversary manipulation using pessimistic bilevel optimisation [2.6505619784178047]
敵対的機械学習は、学習者が活発な敵からの攻撃に直面している状況に対処する。
このようなシナリオはスパムメールフィルタリング、マルウェア検出、偽画像生成などのアプリケーションで発生する。
学習者と敵対者の相互作用をゲームとしてモデル化し、悲観的二段階最適化問題として問題を定式化する。
論文 参考訳(メタデータ) (2024-10-26T22:27:21Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Certified Human Trajectory Prediction [66.1736456453465]
本稿では,ロバスト性を保証する軌道予測に適した認証手法を提案する。
そこで本研究では, 拡散型トラジェクトリデノイザを提案し, 本手法に組み込むことにより, 性能低下を緩和する。
認定された予測器の精度と堅牢性を実証し、認定されていない予測器に対するそれらの優位性を強調する。
論文 参考訳(メタデータ) (2024-03-20T17:41:35Z) - Conformalized Selective Regression [2.3964255330849356]
共形予測を利用した選択回帰手法を提案する。
提案手法は, 選択回帰に適合し, 複数の最先端ベースラインに対して有利であることを示す。
論文 参考訳(メタデータ) (2024-02-26T04:43:50Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Adversarial Attacks Against Uncertainty Quantification [10.655660123083607]
この研究は、攻撃者が依然として不確実性推定を操作することに興味を持つ異なる敵シナリオに焦点を当てる。
特に、アウトプットが下流モジュールや人間のオペレータによって消費される場合、機械学習モデルの使用を損なうことが目標である。
論文 参考訳(メタデータ) (2023-09-19T12:54:09Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。