論文の概要: AI security and cyber risk in IoT systems
- arxiv url: http://arxiv.org/abs/2410.09194v1
- Date: Fri, 11 Oct 2024 18:54:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 15:53:25.699075
- Title: AI security and cyber risk in IoT systems
- Title(参考訳): IoTシステムにおけるAIセキュリティとサイバーリスク
- Authors: Petar Radanliev, David De Roure, Carsten Maple, Jason R. C. Nurse, Razvan Nicolescu, Uchenna Ani,
- Abstract要約: データ戦略における現在の課題のコンテキストに合わせて、依存関係モデルを提示する。
このモデルは、サイバーリスク評価と一般的なリスク影響評価に使用できる。
- 参考スコア(独自算出の注目度): 9.461216629856853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a dependency model tailored to the context of current challenges in data strategies and make recommendations for the cybersecurity community. The model can be used for cyber risk estimation and assessment and generic risk impact assessment.
- Abstract(参考訳): データ戦略における現在の課題の文脈に合わせた依存性モデルを提示し、サイバーセキュリティコミュニティのためのレコメンデーションを行う。
このモデルは、サイバーリスク評価と一般的なリスク影響評価に使用できる。
関連論文リスト
- Safety at Scale: A Comprehensive Survey of Large Model Safety [299.801463557549]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - SoK: Unifying Cybersecurity and Cybersafety of Multimodal Foundation Models with an Information Theory Approach [58.93030774141753]
MFM(Multimodal foundation model)は、人工知能の大幅な進歩を表す。
本稿では,マルチモーダル学習におけるサイバーセーフティとサイバーセキュリティを概念化する。
我々は、これらの概念をMFMに統一し、重要な脅威を特定するための総合的知識体系化(SoK)を提案する。
論文 参考訳(メタデータ) (2024-11-17T23:06:20Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - QBER: Quantifying Cyber Risks for Strategic Decisions [0.0]
意思決定者が測定可能なリスクメトリクスを提供するために、QBERアプローチを導入します。
QBERは、サイバー攻撃による損失を評価し、既存のサイバーセキュリティ対策に基づいて詳細なリスク分析を行い、完全なコスト評価を提供する。
我々の貢献は、サイバー攻撃の確率とリスクの概要、技術的、経済的、法的影響(TEL)の特定、影響を計測するモデルの作成、リスク軽減戦略の提案、広範囲にわたるサイバーリスク定量化(CRQ)の実施におけるトレンドと課題の調査である。
論文 参考訳(メタデータ) (2024-05-06T14:25:58Z) - Asset-centric Threat Modeling for AI-based Systems [7.696807063718328]
本稿では、AI関連資産、脅威、対策、残留リスクの定量化のためのアプローチおよびツールであるThreatFinderAIを提案する。
このアプローチの実用性を評価するため、参加者はAIベースのヘルスケアプラットフォームのサイバーセキュリティ専門家によって開発された脅威モデルを再現するよう命じられた。
全体として、ソリューションのユーザビリティはよく認識され、脅威の識別とリスクの議論を効果的にサポートする。
論文 参考訳(メタデータ) (2024-03-11T08:40:01Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - A robust statistical framework for cyber-vulnerability prioritisation under partial information in threat intelligence [0.0]
この研究は、サイバー脆弱性に関する不確実性の下で、定量的および質的な推論のための頑健な統計的枠組みを導入する。
我々は,既存の脆弱性の集合全体の部分的知識の下で,ばらつきのランクに適合する新しい精度尺度を同定する。
本稿では,サイバー脆弱性に関する部分的知識が,運用シナリオにおける脅威インテリジェンスと意思決定に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T15:05:43Z) - Holistic Adversarial Robustness of Deep Learning Models [91.34155889052786]
敵対的堅牢性は、安全性と信頼性を確保するために、機械学習モデルの最悪のケースパフォーマンスを研究する。
本稿では,深層学習モデルの対角的ロバスト性に関する研究課題の概要と研究手法の基礎原則について概説する。
論文 参考訳(メタデータ) (2022-02-15T05:30:27Z) - Assessing Risks and Modeling Threats in the Internet of Things [0.0]
我々は、敵の資産、敵の行動、悪用可能な脆弱性、あらゆるIoT攻撃の構成要素である妥協されたプロパティを記述したIoT攻撃分類を開発する。
我々は、このIoT攻撃分類を、共同リスク評価と成熟度評価の枠組みを設計するための基盤として利用しています。
このIoTフレームワークの有用性は、複数の製造業者のコンテキストにおけるケーススタディの実装によって強調される。
論文 参考訳(メタデータ) (2021-10-14T23:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。