論文の概要: ADMIn: Attacks on Dataset, Model and Input. A Threat Model for AI Based Software
- arxiv url: http://arxiv.org/abs/2401.07960v1
- Date: Mon, 15 Jan 2024 20:55:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 12:37:32.914047
- Title: ADMIn: Attacks on Dataset, Model and Input. A Threat Model for AI Based Software
- Title(参考訳): ADMIn:AIベースのソフトウェアに対する脅威モデル
- Authors: Vimal Kumar, Juliette Mayo, Khadija Bahiss,
- Abstract要約: AIベースのソフトウェアに対する脅威を明らかにするために使用できる脅威モデルを提案する。
脅威モデルは、AIベースのソフトウェアのためのソフトウェア開発プロセスのモデルと攻撃分類の2つの主要な部分から構成される。
2つの実生活AIベースのソフトウェアに脅威モデルを適用し、見つかったプロセスと脅威について議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning (ML) and artificial intelligence (AI) techniques have now become commonplace in software products and services. When threat modelling a system, it is therefore important that we consider threats unique to ML and AI techniques, in addition to threats to our software. In this paper, we present a threat model that can be used to systematically uncover threats to AI based software. The threat model consists of two main parts, a model of the software development process for AI based software and an attack taxonomy that has been developed using attacks found in adversarial AI research. We apply the threat model to two real life AI based software and discuss the process and the threats found.
- Abstract(参考訳): 機械学習(ML)と人工知能(AI)の技術は、今やソフトウェア製品やサービスで一般的になっています。
したがって、システムモデリングにおける脅威は、ソフトウェアに対する脅威に加えて、MLやAI技術固有の脅威を考えることが重要である。
本稿では、AIベースのソフトウェアに対する脅威を体系的に発見するために使用できる脅威モデルを提案する。
脅威モデルは、AIベースのソフトウェアのためのソフトウェア開発プロセスのモデルと、敵AI研究で見つかった攻撃を使用して開発された攻撃分類の2つの主要な部分から構成される。
2つの実生活AIベースのソフトウェアに脅威モデルを適用し、見つかったプロセスと脅威について議論する。
関連論文リスト
- Is Generative AI the Next Tactical Cyber Weapon For Threat Actors? Unforeseen Implications of AI Generated Cyber Attacks [0.0]
本稿では,AIの誤用によるエスカレート脅威,特にLarge Language Models(LLMs)の使用について述べる。
一連の制御された実験を通じて、これらのモデルがどのようにして倫理的およびプライバシー保護を回避し、効果的にサイバー攻撃を発生させるかを実証する。
私たちはまた、サイバー攻撃の自動化と実行のために特別に設計されたカスタマイズされた微調整のLLMであるOccupy AIを紹介します。
論文 参考訳(メタデータ) (2024-08-23T02:56:13Z) - Asset-centric Threat Modeling for AI-based Systems [7.696807063718328]
本稿では、AI関連資産、脅威、対策、残留リスクの定量化のためのアプローチおよびツールであるThreatFinderAIを提案する。
このアプローチの実用性を評価するため、参加者はAIベースのヘルスケアプラットフォームのサイバーセキュリティ専門家によって開発された脅威モデルを再現するよう命じられた。
全体として、ソリューションのユーザビリティはよく認識され、脅威の識別とリスクの議論を効果的にサポートする。
論文 参考訳(メタデータ) (2024-03-11T08:40:01Z) - Autonomous Threat Hunting: A Future Paradigm for AI-Driven Threat Intelligence [0.0]
人工知能(AI)と従来の脅威インテリジェンス方法論の融合を概観する。
従来の脅威インテリジェンスプラクティスに対するAIと機械学習の変革的な影響を検査する。
ケーススタディと評価は、AI駆動の脅威インテリジェンスを採用する組織から学んだ成功物語と教訓を強調している。
論文 参考訳(メタデータ) (2023-12-30T17:36:08Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - CTI4AI: Threat Intelligence Generation and Sharing after Red Teaming AI
Models [0.0]
システムの脆弱性、潜在的な脅威、システムの堅牢性を高める特性を識別する必要がある。
二次的なニーズは、このAIセキュリティ脅威インテリジェンスを、モデル開発者、ユーザ、AI/MLセキュリティ専門家など、さまざまな利害関係者間で共有することである。
本稿では,AI/ML固有の脆弱性と脅威知能を体系的に識別し,共有する必要性を克服するために,プロトタイプシステムCTI4AIを作成し,記述する。
論文 参考訳(メタデータ) (2022-08-16T00:16:58Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Security and Privacy for Artificial Intelligence: Opportunities and
Challenges [11.368470074697747]
近年、ほとんどのAIモデルは高度なハッキング技術に弱い。
この課題は、敵AIの研究努力を共同で進めるきっかけとなった。
我々は、AIアプリケーションに対する敵攻撃を実証する総合的なサイバーセキュリティレビューを提示する。
論文 参考訳(メタデータ) (2021-02-09T06:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。