論文の概要: Epistemological Equation for Analysing Uncontrollable States in Complex
Systems: Quantifying Cyber Risks from the Internet of Things
- arxiv url: http://arxiv.org/abs/2212.08141v1
- Date: Thu, 15 Dec 2022 21:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:05:12.409733
- Title: Epistemological Equation for Analysing Uncontrollable States in Complex
Systems: Quantifying Cyber Risks from the Internet of Things
- Title(参考訳): 複合システムにおける制御不能状態の解析のための認識論的方程式:モノのインターネットからのサイバーリスクの定量化
- Authors: Petar Radanliev, David De Roure, Pete Burnap and Omar Santos
- Abstract要約: 新しい分析アプローチにより、複雑なIoTシステムにおける制御不能なリスク状態の評価が可能になる。
IoTサイバーリスク姿勢の定量的自己評価に使用することができる。
- 参考スコア(独自算出の注目度): 3.1351527202068445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To enable quantitative risk assessment of uncontrollable risk states in
complex and coupled IoT systems, a new epistemological equation is designed and
tested though comparative and empirical analysis. The comparative analysis is
conducted on national digital strategies, followed by an empirical analysis of
cyber risk assessment approaches. The new epistemological analysis approach
enables the assessment of uncontrollable risk states in complex IoT systems,
which begin to resemble artificial intelligence, and can be used for a
quantitative self-assessment of IoT cyber risk posture.
- Abstract(参考訳): 複雑で結合したIoTシステムにおいて、制御不能なリスク状態の定量的評価を可能にするために、新しい認識論的方程式を設計、テストする。
比較分析は全国のデジタル戦略に基づいて行われ、続いてサイバーリスク評価アプローチの実証分析が行われる。
新しい認識論的分析アプローチは、複雑なIoTシステムにおける制御不能なリスク状態の評価を可能にし、人工知能に類似し始め、IoTサイバーリスク姿勢の定量的自己評価に使用することができる。
関連論文リスト
- Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - A Cybersecurity Risk Analysis Framework for Systems with Artificial
Intelligence Components [0.0]
欧州連合人工知能法、NIST人工知能リスク管理フレームワーク、および関連する規範の導入は、人工知能コンポーネントを持つシステムを評価するために、新しいリスク分析アプローチをよりよく理解し実装することを要求する。
本稿では,このようなシステムの評価を支援するサイバーセキュリティリスク分析フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-03T09:06:39Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Capsa: A Unified Framework for Quantifying Risk in Deep Neural Networks [142.67349734180445]
ディープニューラルネットワークにリスク認識を提供する既存のアルゴリズムは複雑でアドホックである。
ここでは、リスク認識でモデルを拡張するためのフレームワークであるcapsaを紹介します。
論文 参考訳(メタデータ) (2023-08-01T02:07:47Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Measuring Bias in AI Models: An Statistical Approach Introducing N-Sigma [19.072543709069087]
自動意思決定システムにおけるバイアスを測定する統計的アプローチを解析する。
我々は,N-Sigma法に基づく統計的手法を用いて,機械学習モデルのバイアスを測定する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-26T16:49:25Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - System Safety Engineering for Social and Ethical ML Risks: A Case Study [0.5249805590164902]
政府、産業、アカデミックはML駆動システムにおける害を特定し緩和する努力をしてきた。
既存のアプローチは概ね不整合であり、アドホックであり、有効性は不明である。
特に、この分析が社会的および倫理的リスクを識別し、それらを緩和するための具体的な設計レベルの制御を開発するためにどのように拡張できるかに焦点を当てる。
論文 参考訳(メタデータ) (2022-11-08T22:58:58Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [9.262092738841979]
AIベースのシステムは、組織、個人、社会に価値を提供するために、ますます活用されている。
リスクは、提案された規制、訴訟、および一般的な社会的懸念につながった。
本稿では,定量的AIリスクアセスメントの概念について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z) - Assessing Risks and Modeling Threats in the Internet of Things [0.0]
我々は、敵の資産、敵の行動、悪用可能な脆弱性、あらゆるIoT攻撃の構成要素である妥協されたプロパティを記述したIoT攻撃分類を開発する。
我々は、このIoT攻撃分類を、共同リスク評価と成熟度評価の枠組みを設計するための基盤として利用しています。
このIoTフレームワークの有用性は、複数の製造業者のコンテキストにおけるケーススタディの実装によって強調される。
論文 参考訳(メタデータ) (2021-10-14T23:36:00Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。