論文の概要: "Why do so?" -- A Practical Perspective on Machine Learning Security
- arxiv url: http://arxiv.org/abs/2207.05164v1
- Date: Mon, 11 Jul 2022 19:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 15:53:05.923584
- Title: "Why do so?" -- A Practical Perspective on Machine Learning Security
- Title(参考訳): 「なぜそうするのか」 -- 機械学習のセキュリティに関する実践的視点-
- Authors: Kathrin Grosse, Lukas Bieringer, Tarek Richard Besold, Battista
Biggio, Katharina Krombholz
- Abstract要約: 我々は139人の産業従事者との攻撃発生と懸念を分析した。
私たちの結果は、デプロイされた機械学習に対する現実世界の攻撃に光を当てています。
我々の研究は、現実の敵対的機械学習に関するさらなる研究の道を開くものだ。
- 参考スコア(独自算出の注目度): 21.538956161215555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the large body of academic work on machine learning security, little
is known about the occurrence of attacks on machine learning systems in the
wild. In this paper, we report on a quantitative study with 139 industrial
practitioners. We analyze attack occurrence and concern and evaluate
statistical hypotheses on factors influencing threat perception and exposure.
Our results shed light on real-world attacks on deployed machine learning. On
the organizational level, while we find no predictors for threat exposure in
our sample, the amount of implement defenses depends on exposure to threats or
expected likelihood to become a target. We also provide a detailed analysis of
practitioners' replies on the relevance of individual machine learning attacks,
unveiling complex concerns like unreliable decision making, business
information leakage, and bias introduction into models. Finally, we find that
on the individual level, prior knowledge about machine learning security
influences threat perception. Our work paves the way for more research about
adversarial machine learning in practice, but yields also insights for
regulation and auditing.
- Abstract(参考訳): 機械学習のセキュリティに関する多くの学術研究にもかかわらず、機械学習システムに対する攻撃の発生についてはほとんど知られていない。
本稿では,産業従事者139名の定量的研究について報告する。
攻撃の発生と懸念を分析し,脅威の知覚と露出に影響を与える要因に関する統計的仮説を評価する。
我々の結果は、デプロイされた機械学習に対する現実世界の攻撃に光を当てた。
組織レベルでは、我々のサンプルに脅威暴露の予測因子は見つからないが、実施防御の量は、脅威にさらされること、あるいは標的になる可能性によって決まる。
また、個別の機械学習攻撃の関連性に関する実践者の回答を詳細に分析し、信頼できない意思決定、ビジネス情報漏洩、モデルへのバイアス導入といった複雑な懸念を明らかにします。
最後に、個人レベルでは、機械学習のセキュリティに関する事前知識が脅威認識に影響を及ぼすことがわかった。
私たちの研究は、現実の敵機械学習に関するさらなる研究の道を開く一方で、規制や監査の洞察も得られます。
関連論文リスト
- Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Adversarial Learning in Real-World Fraud Detection: Challenges and
Perspectives [1.5373344688357016]
不正行為と敵対的攻撃は機械学習モデルを脅かす。
本稿では,不正検出システムに対する攻撃が,他の機械学習応用とどのように異なるかを述べる。
論文 参考訳(メタデータ) (2023-07-03T23:04:49Z) - Adversarial Robustness in Unsupervised Machine Learning: A Systematic
Review [0.0]
本稿では,教師なし学習の堅牢性に関する体系的な文献レビューを行う。
この結果に基づいて,教師なし学習に対する攻撃特性のモデルを構築した。
論文 参考訳(メタデータ) (2023-06-01T13:59:32Z) - White-box Inference Attacks against Centralized Machine Learning and
Federated Learning [0.0]
ニューラルネットワーク層,勾配,勾配ノルム,微調整モデルの違いが,事前知識によるメンバー推論攻撃性能に与える影響を評価する。
その結果,集中型機械学習モデルでは,すべての面において,より深刻なメンバー情報漏洩が見られた。
論文 参考訳(メタデータ) (2022-12-15T07:07:19Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Adversarial Machine Learning in Text Analysis and Generation [1.116812194101501]
本論文では,テキスト解析と生成における対比機械学習の側面と研究動向について考察する。
本稿は,ganアルゴリズム,モデル,攻撃の種類,これらの攻撃に対する防御など,この分野の主要な研究動向を要約する。
論文 参考訳(メタデータ) (2021-01-14T04:37:52Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - A Survey of Privacy Attacks in Machine Learning [0.7614628596146599]
この研究は、機械学習に対するプライバシー攻撃に関連する40以上の論文の分析である。
プライバシリークの原因についての最初の調査と、異なる攻撃の詳細な分析が紹介されている。
本稿では,最も一般的に提案されている防衛の概観と,分析において確認されたオープンな問題と今後の方向性について論じる。
論文 参考訳(メタデータ) (2020-07-15T12:09:53Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Adversarial Attacks on Machine Learning Systems for High-Frequency
Trading [55.30403936506338]
逆機械学習の観点から,アルゴリズム取引のバリュエーションモデルについて検討する。
攻撃コストを最小限に抑えるサイズ制約で、このドメインに特有の新たな攻撃を導入する。
本稿では、金融モデルのロバスト性について研究・評価するための分析ツールとして、これらの攻撃がどのように利用できるかについて論じる。
論文 参考訳(メタデータ) (2020-02-21T22:04:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。