論文の概要: Investigating Adversarial Attacks in Software Analytics via Machine Learning Explainability
- arxiv url: http://arxiv.org/abs/2408.04124v1
- Date: Wed, 7 Aug 2024 23:21:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 17:10:20.201604
- Title: Investigating Adversarial Attacks in Software Analytics via Machine Learning Explainability
- Title(参考訳): 機械学習によるソフトウェア分析における敵攻撃の調査
- Authors: MD Abdul Awal, Mrigank Rochan, Chanchal K. Roy,
- Abstract要約: 本研究では、ソフトウェア解析タスクにおけるMLモデルの堅牢性を測定するために、ML説明可能性と敵攻撃の関係について検討する。
6つのデータセット、3つのML説明可能性技術、7つのMLモデルを含む我々の実験は、ソフトウェア分析タスクにおいてMLモデルに対する敵攻撃を成功させるのにML説明可能性を使用することができることを示した。
- 参考スコア(独自算出の注目度): 11.16693333878553
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the recent advancements in machine learning (ML), numerous ML-based approaches have been extensively applied in software analytics tasks to streamline software development and maintenance processes. Nevertheless, studies indicate that despite their potential usefulness, ML models are vulnerable to adversarial attacks, which may result in significant monetary losses in these processes. As a result, the ML models' robustness against adversarial attacks must be assessed before they are deployed in software analytics tasks. Despite several techniques being available for adversarial attacks in software analytics tasks, exploring adversarial attacks using ML explainability is largely unexplored. Therefore, this study aims to investigate the relationship between ML explainability and adversarial attacks to measure the robustness of ML models in software analytics tasks. In addition, unlike most existing attacks that directly perturb input-space, our attack approach focuses on perturbing feature-space. Our extensive experiments, involving six datasets, three ML explainability techniques, and seven ML models, demonstrate that ML explainability can be used to conduct successful adversarial attacks on ML models in software analytics tasks. This is achieved by modifying only the top 1-3 important features identified by ML explainability techniques. Consequently, the ML models under attack fail to accurately predict up to 86.6% of instances that were correctly predicted before adversarial attacks, indicating the models' low robustness against such attacks. Finally, our proposed technique demonstrates promising results compared to four state-of-the-art adversarial attack techniques targeting tabular data.
- Abstract(参考訳): 機械学習(ML)の最近の進歩により、多くのMLベースのアプローチが、ソフトウェア開発とメンテナンスプロセスの合理化のために、ソフトウェア分析タスクに広く適用されている。
それでも研究により、MLモデルは潜在的な有用性にもかかわらず、敵の攻撃に弱いことが示され、これらのプロセスに大きな金銭的損失をもたらす可能性がある。
結果として、MLモデルの敵攻撃に対する堅牢性は、ソフトウェア分析タスクにデプロイされる前に評価されなければならない。
ソフトウェア分析タスクにおける敵攻撃にはいくつかのテクニックが提供されているが、ML説明可能性を用いた敵攻撃の探索はほとんど探索されていない。
そこで本研究では,ソフトウェア解析タスクにおけるMLモデルのロバスト性を評価するために,ML説明可能性と敵攻撃との関係を検討することを目的とした。
さらに、入力空間を直接摂動する既存の攻撃とは異なり、我々の攻撃アプローチは機能空間を摂動することに焦点を当てている。
6つのデータセット、3つのML説明可能性技術、7つのMLモデルを含む我々の広範な実験は、ソフトウェア分析タスクにおいてMLモデルに対する敵攻撃を成功させるのにML説明可能性を使用することができることを示した。
これはML説明可能性技術によって識別される上位1~3つの重要な機能だけを変更することで実現される。
その結果、攻撃対象のMLモデルは、敵攻撃前に正確に予測されたインスタンスの86.6%を正確に予測することができず、そのような攻撃に対してモデルの堅牢性が低いことを示している。
最後に,本手法は,表層データを対象とした4つの対角攻撃手法と比較して有望な結果を示す。
関連論文リスト
- TA3: Testing Against Adversarial Attacks on Machine Learning Models [2.2584611101867917]
敵攻撃は、機械学習(ML)モデルを多くのアプリケーションに展開する上で大きな脅威である。
このような攻撃に対してMLモデルをテストすることは、MLモデルを評価し改善するための重要なステップになりつつある。
敵攻撃防止テスト(TA3)のワークフローを支援する対話型システムの設計と開発について報告する。
論文 参考訳(メタデータ) (2024-10-06T15:44:04Z) - Detecting and Understanding Vulnerabilities in Language Models via Mechanistic Interpretability [44.99833362998488]
大規模言語モデル(LLM)は、幅広いタスクで素晴らしいパフォーマンスを示している。
特にLSMは敵攻撃に弱いことが知られており、入力に対する非受容的な変更はモデルの出力を誤解させる可能性がある。
本稿では,メカニスティック・インタプリタビリティ(MI)技術に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T09:55:34Z) - EvaluateXAI: A Framework to Evaluate the Reliability and Consistency of Rule-based XAI Techniques for Software Analytics Tasks [5.176434782905268]
PyExplainerとLIMEは、ソフトウェア分析タスクにおけるMLモデルの予測を説明するために使用されている。
本稿では,これらの手法がMLモデルの信頼性と一貫した説明を生成する能力を評価する。
論文 参考訳(メタデータ) (2024-07-18T21:09:28Z) - Safety in Graph Machine Learning: Threats and Safeguards [84.26643884225834]
社会的利益にもかかわらず、最近の研究はグラフMLモデルの普及に伴う重要な安全性上の懸念を浮き彫りにしている。
安全性を重視した設計が欠如しているため、これらのモデルは信頼性の低い予測を導き、一般化性の低下を示し、データの機密性を侵害することができる。
金融詐欺検出のような高額なシナリオでは、これらの脆弱性は個人と社会の両方を全般的に危険に晒す可能性がある。
論文 参考訳(メタデータ) (2024-05-17T18:11:11Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - Threat Detection for General Social Engineering Attack Using Machine
Learning Techniques [7.553860996595933]
本稿では,機械学習(ML)技術を用いた一般社会工学(SE)攻撃の脅威検出について検討する。
実験結果と分析の結果,1) ML手法は一般SE攻撃の検出に有効であり,いくつかのMLモデルは非常に有効である。
論文 参考訳(メタデータ) (2022-03-15T14:18:22Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。