論文の概要: Asset-driven Threat Modeling for AI-based Systems
- arxiv url: http://arxiv.org/abs/2403.06512v1
- Date: Mon, 11 Mar 2024 08:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 19:53:00.123281
- Title: Asset-driven Threat Modeling for AI-based Systems
- Title(参考訳): aiシステムのためのアセット駆動脅威モデリング
- Authors: Jan von der Assen, Jamo Sharif, Chao Feng, G\'er\^ome Bovet, Burkhard
Stiller
- Abstract要約: 本研究の目的は、医療領域で設計されたAIシステムの脅威モデルを作成することである。
ソリューションのユーザビリティは良好に評価され,脅威識別に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 7.754802111308721
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Threat modeling is a popular method to securely develop systems by achieving
awareness of potential areas of future damage caused by adversaries. The
benefit of threat modeling lies in its ability to indicate areas of concern,
paving the way to consider mitigation during the design stage. However, threat
modeling for systems relying on Artificial Intelligence is still not well
explored. While conventional threat modeling methods and tools did not address
AI-related threats, research on this amalgamation still lacks solutions capable
of guiding and automating the process, as well as providing evidence that the
methods hold up in practice. To evaluate that the work at hand is able to guide
and automatically identify AI-related threats during the architecture
definition stage, several experts were tasked to create a threat model of an AI
system designed in the healthcare domain. The usability of the solution was
well-perceived, and the results indicate that it is effective for threat
identification.
- Abstract(参考訳): 脅威モデリングは、敵による将来の損害の潜在的な領域を認識させることにより、システム開発を確実にするための一般的な手法である。
脅威モデリングの利点は、関心領域を示す能力であり、設計段階における緩和を考える方法である。
しかし、人工知能に依存するシステムの脅威モデリングはまだ十分に研究されていない。
従来の脅威モデリング手法とツールはAI関連の脅威には対処しなかったが、この融合の研究には、プロセスのガイドと自動化が可能なソリューションがまだ欠けている。
アーキテクチャ定義段階で、手作業がAI関連の脅威をガイドし、自動的に識別できることを評価するために、いくつかの専門家がヘルスケアドメインで設計されたAIシステムの脅威モデルの作成を任された。
ソリューションのユーザビリティは十分に認識されており,その結果,脅威識別に有効であることが示唆された。
関連論文リスト
- AI-Based Energy Transportation Safety: Pipeline Radial Threat Estimation
Using Intelligent Sensing System [52.93806509364342]
本稿では,分散光ファイバーセンシング技術に基づくエネルギーパイプラインの放射状脅威推定手法を提案する。
本稿では,包括的信号特徴抽出のための連続的マルチビュー・マルチドメイン機能融合手法を提案する。
本研究では,事前学習モデルによる伝達学習の概念を取り入れ,認識精度と学習効率の両立を図る。
論文 参考訳(メタデータ) (2023-12-18T12:37:35Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z) - A Survey on Explainable Artificial Intelligence for Cybersecurity [14.648580959079787]
説明可能な人工知能(XAI)は、決定と行動に対して明確かつ解釈可能な説明を提供する機械学習モデルを作成することを目的としている。
ネットワークサイバーセキュリティの分野では、XAIは、サイバー脅威の振る舞いをよりよく理解することで、ネットワークセキュリティへのアプローチ方法に革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-03-07T22:54:18Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - CTI4AI: Threat Intelligence Generation and Sharing after Red Teaming AI
Models [0.0]
システムの脆弱性、潜在的な脅威、システムの堅牢性を高める特性を識別する必要がある。
二次的なニーズは、このAIセキュリティ脅威インテリジェンスを、モデル開発者、ユーザ、AI/MLセキュリティ専門家など、さまざまな利害関係者間で共有することである。
本稿では,AI/ML固有の脆弱性と脅威知能を体系的に識別し,共有する必要性を克服するために,プロトタイプシステムCTI4AIを作成し,記述する。
論文 参考訳(メタデータ) (2022-08-16T00:16:58Z) - Safe AI -- How is this Possible? [0.45687771576879593]
従来の安全エンジニアリングは、決定論的で非進化的なシステムが、明確に定義されたコンテキストで運用されるものから、予測不可能な操作コンテキストで機能する自律的で学習可能なAIシステムへと、転換点に近づいている。
我々は、安全AIの基本的な課題を概説し、AIシステムの安全な振る舞いにおいて、不確実性を最小化し、信頼性を高め、許容レベルまで、厳格なエンジニアリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-25T16:32:35Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。