論文の概要: Risk Analysis and Design Against Adversarial Actions
- arxiv url: http://arxiv.org/abs/2505.01130v1
- Date: Fri, 02 May 2025 09:16:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.980876
- Title: Risk Analysis and Design Against Adversarial Actions
- Title(参考訳): 敵行動に対するリスク分析と設計
- Authors: Marco C. Campi, Algo Carè, Luis G. Crespo, Simone Garatti, Federico A. Ramponi,
- Abstract要約: 本稿では,多種多様なタイプや強度の攻撃に対するモデルの堅牢性を評価するための,多種多様で先進的なフレームワークを提案する。
その結果、追加のテストデータを必要としないモデル脆弱性の評価が可能になり、配布不要のセットアップで運用される。
- 参考スコア(独自算出の注目度): 1.9573380763700716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning models capable of providing reliable predictions in the face of adversarial actions has become a central focus of the machine learning community in recent years. This challenge arises from observing that data encountered at deployment time often deviate from the conditions under which the model was trained. In this paper, we address deployment-time adversarial actions and propose a versatile, well-principled framework to evaluate the model's robustness against attacks of diverse types and intensities. While we initially focus on Support Vector Regression (SVR), the proposed approach extends naturally to the broad domain of learning via relaxed optimization techniques. Our results enable an assessment of the model vulnerability without requiring additional test data and operate in a distribution-free setup. These results not only provide a tool to enhance trust in the model's applicability but also aid in selecting among competing alternatives. Later in the paper, we show that our findings also offer useful insights for establishing new results within the out-of-distribution framework.
- Abstract(参考訳): 近年、敵対的行動に直面して信頼できる予測を提供することができる学習モデルは、機械学習コミュニティの中心となっている。
この課題は、デプロイ時に遭遇したデータが、モデルがトレーニングされた条件から逸脱することが多いことを観察することから生じる。
本稿では,展開時の敵行動に対処し,多種多様な種類や強度の攻撃に対するモデルの堅牢性を評価するために,多種多様で先導的な枠組みを提案する。
当初はSVR(Support Vector Regression)に重点を置いていたが,提案手法は緩やかな最適化手法による学習領域に自然に拡張されている。
この結果により,追加のテストデータを必要としないモデル脆弱性の評価が可能となり,分散フリーな運用が可能となった。
これらの結果は、モデルの適用性に対する信頼性を高めるツールを提供するだけでなく、競合する選択肢の選択にも役立ちます。
本稿では,アウト・オブ・ディストリビューション・フレームワーク内での新たな結果の確立に有用な知見を提供する。
関連論文リスト
- Classification under strategic adversary manipulation using pessimistic bilevel optimisation [2.6505619784178047]
敵対的機械学習は、学習者が活発な敵からの攻撃に直面している状況に対処する。
このようなシナリオはスパムメールフィルタリング、マルウェア検出、偽画像生成などのアプリケーションで発生する。
学習者と敵対者の相互作用をゲームとしてモデル化し、悲観的二段階最適化問題として問題を定式化する。
論文 参考訳(メタデータ) (2024-10-26T22:27:21Z) - MIBench: A Comprehensive Framework for Benchmarking Model Inversion Attack and Defense [42.56467639172508]
Model Inversion (MI)攻撃は、ターゲットモデルの出力情報を活用して、プライバシに敏感なトレーニングデータを再構築することを目的としている。
我々は、モデル反転攻撃と防御の体系的評価のためのMIBenchという最初の実用的なベンチマークを構築した。
論文 参考訳(メタデータ) (2024-10-07T16:13:49Z) - Towards Context-Aware Domain Generalization: Understanding the Benefits
and Limits of Marginal Transfer Learning [1.5320861212113897]
我々は、コンテキストの概念をデータポイントの集合の置換不変表現として定式化する。
経験的分析により、我々の基準は好ましくないシナリオと好ましくないシナリオの両方を識別するのに有効であることが示された。
論文 参考訳(メタデータ) (2023-12-15T05:18:07Z) - MF-CLIP: Leveraging CLIP as Surrogate Models for No-box Adversarial Attacks [65.86360607693457]
敵に事前の知識がないノンボックス攻撃は、実際的な関連性にもかかわらず、比較的過小評価されている。
本研究は,大規模ビジョン・ランゲージ・モデル(VLM)をノンボックス・アタックの実行のための代理モデルとして活用するための体系的な研究である。
理論的および実証的な分析により,バニラCLIPを直接サロゲートモデルとして適用するための識別能力の不足に起因するno-boxアタックの実行に重要な制限があることが判明した。
MF-CLIP(MF-CLIP: MF-CLIP)はCLIPのサロゲートモデルとしての有効性を高める新しいフレームワークである。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。