論文の概要: Conflicting Interactions Among Protections Mechanisms for Machine
Learning Models
- arxiv url: http://arxiv.org/abs/2207.01991v1
- Date: Tue, 5 Jul 2022 12:18:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 15:53:42.099259
- Title: Conflicting Interactions Among Protections Mechanisms for Machine
Learning Models
- Title(参考訳): 機械学習モデルにおける保護メカニズム間の相互作用の競合
- Authors: Sebastian Szyller, N. Asokan
- Abstract要約: MLモデルは様々な攻撃の標的となっている。
セキュリティとプライバシの交差点における研究、そしてMLは繁栄している。
特定の関心事に最適な解は、他の関心事に対処しようとする解と負に相互作用することがある。
- 参考スコア(独自算出の注目度): 15.047412609389983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, systems based on machine learning (ML) are widely used in different
domains. Given their popularity, ML models have become targets for various
attacks. As a result, research at the intersection of security and privacy, and
ML has flourished.
The research community has been exploring the attack vectors and potential
mitigations separately. However, practitioners will likely need to deploy
defences against several threats simultaneously. A solution that is optimal for
a specific concern may interact negatively with solutions intended to address
other concerns.
In this work, we explore the potential for conflicting interactions between
different solutions that enhance the security/privacy of ML-base systems. We
focus on model and data ownership; exploring how ownership verification
techniques interact with other ML security/privacy techniques like
differentially private training, and robustness against model evasion. We
provide a framework, and conduct systematic analysis of pairwise interactions.
We show that many pairs are incompatible. Where possible, we provide
relaxations to the hyperparameters or the techniques themselves that allow for
the simultaneous deployment. Lastly, we discuss the implications and provide
guidelines for future work.
- Abstract(参考訳): 現在、機械学習(ML)に基づくシステムは様々な領域で広く使われている。
その人気から、MLモデルは様々な攻撃の標的となっている。
その結果、セキュリティとプライバシの交差点とMLの研究が盛んになった。
研究コミュニティは、攻撃ベクトルと潜在的な緩和を別々に調査している。
しかし、実践者は複数の脅威に対して同時に防御を展開する必要がある。
特定の関心事に最適な解は、他の懸念に対処しようとする解と負に相互作用することがある。
本研究では,MLベースのシステムのセキュリティ/プライバシを高めるさまざまなソリューション間のインタラクションの衝突の可能性を検討する。
私たちは、モデルとデータのオーナシップに重点を置いています。オーナシップ検証技術は、差分プライベートトレーニングやモデル回避に対する堅牢性といった、他のMLセキュリティ/プライバシ技術とどのように相互作用するかを探求します。
ペアの相互作用を体系的に分析する枠組みを提供する。
多くのペアが互換性がないことを示す。
可能であれば、同時デプロイを可能にするハイパーパラメータやテクニック自体に緩和を提供します。
最後に,その影響について論じ,今後の研究の指針を提供する。
関連論文リスト
- HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [76.42274173122328]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - How to Train your Antivirus: RL-based Hardening through the Problem-Space [22.056941223966255]
経験的ロバスト性を与える唯一の防御技術である逆行訓練は、この領域の最初から適用できない。
本稿では,敵のモデル構築のための新たな強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-02-29T10:38:56Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - "Real Attackers Don't Compute Gradients": Bridging the Gap Between
Adversarial ML Research and Practice [10.814642396601139]
研究者と実践者の間に明らかなギャップがあることから,本論文は2つの領域を橋渡しすることを目的としている。
まず実世界のケーススタディを3つのケーススタディで提示し、そのケーススタディから、未知の、あるいは無視された実用的な洞察を導き出すことができる。
次に、トップセキュリティカンファレンスで最近公開されたすべての敵対的ML論文を分析し、ポジティブなトレンドと盲点を強調します。
論文 参考訳(メタデータ) (2022-12-29T14:11:07Z) - Learned Systems Security [30.39158287782567]
学習システムは内部で機械学習(ML)を使用してパフォーマンスを向上させる。
このようなシステムは、いくつかの敵対的ML攻撃に対して脆弱であることが期待できる。
MLの使用に起因した脆弱性を識別するフレームワークを開発する。
論文 参考訳(メタデータ) (2022-12-20T15:09:30Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - A Framework for Understanding Model Extraction Attack and Defense [48.421636548746704]
我々は,モデルユーティリティとユーザとのトレードオフと,敵の視点によるプライバシについて検討する。
我々は,このようなトレードオフを定量化し,その理論的特性を分析し,最適な敵攻撃・防衛戦略を理解するための最適化問題を開発する。
論文 参考訳(メタデータ) (2022-06-23T05:24:52Z) - Multi-concept adversarial attacks [13.538643599990785]
単一のMLモデルをターゲットにしたテストタイムアタックは、他のMLモデルへの影響を無視することが多い。
我々は,一方のMLモデルの精度を維持しつつ,一方のMLモデルの同時攻撃を可能にする新しい攻撃手法を開発した。
論文 参考訳(メタデータ) (2021-10-19T22:14:19Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Adversarial Machine Learning: Bayesian Perspectives [0.4915744683251149]
Adversarial Machine Learning (AML)は、機械学習(ML)システムをセキュリティ上の脅威から保護することを目的とした、主要な分野として浮上している。
あるシナリオでは、愚かな学習システムに入力データを積極的に操作する敵が存在するかもしれません。
これにより、MLシステムが直面する可能性のある、新たなセキュリティ脆弱性のクラスと、信頼性操作に不可欠な敵の堅牢性と呼ばれる、新たな望ましいプロパティが生成される。
論文 参考訳(メタデータ) (2020-03-07T10:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。