論文の概要: Threat Me Right: A Human HARMS Threat Model for Technical Systems
- arxiv url: http://arxiv.org/abs/2502.07116v1
- Date: Mon, 10 Feb 2025 23:13:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:05:41.285324
- Title: Threat Me Right: A Human HARMS Threat Model for Technical Systems
- Title(参考訳): Threat Me Right: 技術的システムのためのヒューマンHARMS脅威モデル
- Authors: Kieron Ivy Turk, Anna Talas, Alice Hutchings,
- Abstract要約: 従来の脅威モデリング手法とその欠点について論じる。
我々は,非技術的・人的要因を識別する新たな脅威モデリングフレームワーク(HARMS)を提案する。
- 参考スコア(独自算出の注目度): 4.096453902709292
- License:
- Abstract: Threat modelling is the process of identifying potential vulnerabilities in a system and prioritising them. Existing threat modelling tools focus primarily on technical systems and are not as well suited to interpersonal threats. In this paper, we discuss traditional threat modelling methods and their shortcomings, and propose a new threat modelling framework (HARMS) to identify non-technical and human factors harms. We also cover a case study of applying HARMS when it comes to IoT devices such as smart speakers with virtual assistants.
- Abstract(参考訳): 脅威モデリングは、システム内の潜在的な脆弱性を特定し、それらを優先順位付けするプロセスである。
既存の脅威モデリングツールは、主に技術システムに焦点を当てており、対人的な脅威には適していない。
本稿では,従来の脅威モデリング手法とその欠点について論じ,非技術的・人的要因を識別する新たな脅威モデリングフレームワーク(HARMS)を提案する。
また、スマートスピーカーやバーチャルアシスタントといったIoTデバイスに関して、HARMSを適用するケーススタディも取り上げています。
関連論文リスト
- AsIf: Asset Interface Analysis of Industrial Automation Devices [1.3216177247621483]
産業制御システムは、通信標準やプロトコルを含むITソリューションをますます採用している。
これらのシステムがより分散化され相互接続されるようになると、セキュリティ対策の強化に対する重要なニーズが生じる。
脅威モデリングは伝統的に、ドメインとセキュリティの専門家を含む構造化ブレインストーミングセッションで行われます。
本稿では,特に物理的脅威に着目した産業システムにおける資産分析手法を提案する。
論文 参考訳(メタデータ) (2024-09-26T07:19:15Z) - The Shadow of Fraud: The Emerging Danger of AI-powered Social Engineering and its Possible Cure [30.431292911543103]
社会工学(SE)攻撃は個人と組織双方にとって重大な脅威である。
人工知能(AI)の進歩は、よりパーソナライズされ説得力のある攻撃を可能にすることによって、これらの脅威を強化する可能性がある。
本研究は、SE攻撃機構を分類し、その進化を分析し、これらの脅威を測定する方法を探る。
論文 参考訳(メタデータ) (2024-07-22T17:37:31Z) - Introducing Systems Thinking as a Framework for Teaching and Assessing Threat Modeling Competency [3.467282314524728]
本稿では,脅威モデリング能力の教育と評価にシステム思考とSTRIDEのような業界標準の脅威モデリングフレームワークを併用することを提案する。
システム思考とSTRIDE教育の両方を持つ学生は、コンポーネントレベルの脅威とシステムレベルの脅威を軽減しようと試みた。
論文 参考訳(メタデータ) (2024-04-25T14:21:15Z) - Asset-centric Threat Modeling for AI-based Systems [7.696807063718328]
本稿では、AI関連資産、脅威、対策、残留リスクの定量化のためのアプローチおよびツールであるThreatFinderAIを提案する。
このアプローチの実用性を評価するため、参加者はAIベースのヘルスケアプラットフォームのサイバーセキュリティ専門家によって開発された脅威モデルを再現するよう命じられた。
全体として、ソリューションのユーザビリティはよく認識され、脅威の識別とリスクの議論を効果的にサポートする。
論文 参考訳(メタデータ) (2024-03-11T08:40:01Z) - ADMIn: Attacks on Dataset, Model and Input. A Threat Model for AI Based Software [0.0]
AIベースのソフトウェアに対する脅威を明らかにするために使用できる脅威モデルを提案する。
脅威モデルは、AIベースのソフトウェアのためのソフトウェア開発プロセスのモデルと攻撃分類の2つの主要な部分から構成される。
2つの実生活AIベースのソフトウェアに脅威モデルを適用し、見つかったプロセスと脅威について議論する。
論文 参考訳(メタデータ) (2024-01-15T20:55:21Z) - ThreatKG: An AI-Powered System for Automated Open-Source Cyber Threat Intelligence Gathering and Management [65.0114141380651]
ThreatKGはOSCTIの収集と管理のための自動化システムである。
複数のソースから多数のOSCTIレポートを効率的に収集する。
さまざまな脅威エンティティに関する高品質な知識を抽出するために、AIベースの専門技術を使用する。
論文 参考訳(メタデータ) (2022-12-20T16:13:59Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - A System for Automated Open-Source Threat Intelligence Gathering and
Management [53.65687495231605]
SecurityKGはOSCTIの収集と管理を自動化するシステムである。
AIとNLP技術を組み合わせて、脅威行動に関する高忠実な知識を抽出する。
論文 参考訳(メタデータ) (2021-01-19T18:31:35Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。