論文の概要: Threats, Vulnerabilities, and Controls of Machine Learning Based
Systems: A Survey and Taxonomy
- arxiv url: http://arxiv.org/abs/2301.07474v2
- Date: Thu, 19 Jan 2023 02:43:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 11:24:53.489102
- Title: Threats, Vulnerabilities, and Controls of Machine Learning Based
Systems: A Survey and Taxonomy
- Title(参考訳): 機械学習に基づくシステムの脅威,脆弱性,制御:調査と分類
- Authors: Yusuke Kawamoto and Kazumasa Miyake and Koichi Konishi and Yutaka Oiwa
- Abstract要約: まず、MLベースのシステムに対する攻撃による被害を分類し、ML固有のセキュリティを定義し、その特性について議論する。
我々は、すべての関連資産と利害関係者を列挙し、ML固有の脅威に対する一般的な分類を提供する。
最後に、MLベースのシステムの脆弱性とコントロールを、システムのライフサイクル全体における各脆弱な資産の観点から分類する。
- 参考スコア(独自算出の注目度): 1.2043574473965317
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this article, we propose the Artificial Intelligence Security Taxonomy to
systematize the knowledge of threats, vulnerabilities, and security controls of
machine-learning-based (ML-based) systems. We first classify the damage caused
by attacks against ML-based systems, define ML-specific security, and discuss
its characteristics. Next, we enumerate all relevant assets and stakeholders
and provide a general taxonomy for ML-specific threats. Then, we collect a wide
range of security controls against ML-specific threats through an extensive
review of recent literature. Finally, we classify the vulnerabilities and
controls of an ML-based system in terms of each vulnerable asset in the
system's entire lifecycle.
- Abstract(参考訳): 本稿では,機械学習システム(MLベース)の脅威,脆弱性,セキュリティ制御の知識を体系化する人工知能セキュリティ分類を提案する。
まず、MLベースのシステムに対する攻撃による被害を分類し、ML固有のセキュリティを定義し、その特性について議論する。
次に、関連するすべての資産と利害関係者を列挙し、ML固有の脅威に対する一般的な分類法を提供する。
そして、最近の文献の広範なレビューを通じて、ML固有の脅威に対する幅広いセキュリティ制御を収集する。
最後に、MLベースのシステムの脆弱性とコントロールを、システムのライフサイクル全体における各脆弱な資産の観点から分類する。
関連論文リスト
- SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.67623347512368]
MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。
我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。
本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
論文 参考訳(メタデータ) (2024-10-24T17:14:40Z) - A New Era in LLM Security: Exploring Security Concerns in Real-World
LLM-based Systems [47.18371401090435]
我々は,LLMではなく,Large Language Model(LLM)システムのセキュリティを分析する。
我々は,多層・多段階のアプローチを提案し,これを最先端のOpenAI GPT4に適用する。
OpenAI GPT4は安全機能を改善するために多くの安全制約を設計しているが、これらの安全制約は攻撃者に対して脆弱である。
論文 参考訳(メタデータ) (2024-02-28T19:00:12Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Identifying Appropriate Intellectual Property Protection Mechanisms for
Machine Learning Models: A Systematization of Watermarking, Fingerprinting,
Model Access, and Attacks [0.1031296820074812]
機械学習(ML)の商業的利用は拡大しており、同時に、MLモデルはより複雑になり、トレーニングコストも高まっている。
本稿では,MLにおけるIPPに関する知見を体系化するとともに,文書作成時に提案される脅威や攻撃,防衛に焦点をあてる。
我々はMLにおけるIPの包括的脅威モデルを構築し、統合された分類体系の中で攻撃と防御を分類する。
論文 参考訳(メタデータ) (2023-04-22T01:05:48Z) - ThreatKG: An AI-Powered System for Automated Open-Source Cyber Threat Intelligence Gathering and Management [65.0114141380651]
ThreatKGはOSCTIの収集と管理のための自動化システムである。
複数のソースから多数のOSCTIレポートを効率的に収集する。
さまざまな脅威エンティティに関する高品質な知識を抽出するために、AIベースの専門技術を使用する。
論文 参考訳(メタデータ) (2022-12-20T16:13:59Z) - Threat Assessment in Machine Learning based Systems [12.031113181911627]
我々は機械学習に基づくシステムに対して報告された脅威を実証研究する。
この研究は、MITREのATLASデータベース、AIインシデントデータベース、および文学からの89の現実世界のML攻撃シナリオに基づいている。
その結果,畳み込みニューラルネットワークは攻撃シナリオの中でも最も標的となるモデルの一つであることがわかった。
論文 参考訳(メタデータ) (2022-06-30T20:19:50Z) - Adversarial Machine Learning Threat Analysis in Open Radio Access
Networks [37.23982660941893]
Open Radio Access Network (O-RAN) は、新しい、オープンで適応的でインテリジェントなRANアーキテクチャである。
本稿では,O-RANに対する体系的対向機械学習脅威分析を提案する。
論文 参考訳(メタデータ) (2022-01-16T17:01:38Z) - A Framework for Evaluating the Cybersecurity Risk of Real World, Machine
Learning Production Systems [41.470634460215564]
我々はML生産システムにサイバー攻撃を組み込むMulVAL攻撃グラフ生成および分析フレームワークの拡張を開発する。
提案された拡張を使用することで、セキュリティ実践者はMLコンポーネントを含む環境にアタックグラフ分析手法を適用することができる。
論文 参考訳(メタデータ) (2021-07-05T05:58:11Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - A System for Efficiently Hunting for Cyber Threats in Computer Systems
Using Threat Intelligence [78.23170229258162]
ThreatRaptorは、OSCTIを使用してコンピュータシステムにおけるサイバー脅威ハンティングを容易にするシステムです。
ThreatRaptorは、(1)構造化OSCTIテキストから構造化された脅威行動を抽出する非監視で軽量で正確なNLPパイプライン、(2)簡潔で表現力のあるドメイン固有クエリ言語であるTBQLを提供し、悪意のあるシステムアクティビティを探し、(3)抽出された脅威行動からTBQLクエリを自動的に合成するクエリ合成メカニズムを提供する。
論文 参考訳(メタデータ) (2021-01-17T19:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。