論文の概要: DODGE: Ontology-Aware Risk Assessment via Object-Oriented Disruption Graphs
- arxiv url: http://arxiv.org/abs/2412.13964v1
- Date: Wed, 18 Dec 2024 15:44:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:23:24.377996
- Title: DODGE: Ontology-Aware Risk Assessment via Object-Oriented Disruption Graphs
- Title(参考訳): DODGE: オブジェクト指向のディスラプショングラフによるオントロジー・アウェア・リスクアセスメント
- Authors: Stefano M. Nicoletti, E. Moritz Hahn, Mattia Fumagalli, Giancarlo Guizzardi, Mariëlle Stoelinga,
- Abstract要約: 共通オントロジー・オブ・バリュー・アンド・リスク(COVER)は、透明で完全かつ説明可能なリスク評価を実行する上で、オブジェクトとそれらの関係がいかに重要であるかを強調している。
我々は、リスクアセスメントのための新しい枠組みであるDODGEを提示することで、COVERが提案する概念のいくつかを運用する。
- 参考スコア(独自算出の注目度): 0.9387233631570749
- License:
- Abstract: When considering risky events or actions, we must not downplay the role of involved objects: a charged battery in our phone averts the risk of being stranded in the desert after a flat tyre, and a functional firewall mitigates the risk of a hacker intruding the network. The Common Ontology of Value and Risk (COVER) highlights how the role of objects and their relationships remains pivotal to performing transparent, complete and accountable risk assessment. In this paper, we operationalize some of the notions proposed by COVER -- such as parthood between objects and participation of objects in events/actions -- by presenting a new framework for risk assessment: DODGE. DODGE enriches the expressivity of vetted formal models for risk -- i.e., fault trees and attack trees -- by bridging the disciplines of ontology and formal methods into an ontology-aware formal framework composed by a more expressive modelling formalism, Object-Oriented Disruption Graphs (ODGs), logic (ODGLog) and an intermediate query language (ODGLang). With these, DODGE allows risk assessors to pose questions about disruption propagation, disruption likelihood and risk levels, keeping the fundamental role of objects at risk always in sight.
- Abstract(参考訳): 携帯電話の充電バッテリーは、フラットタイヤの後に砂漠で立ち往生するリスクを回避し、機能的なファイアウォールは、ハッカーがネットワークを侵入するリスクを軽減します。
共通オントロジー・オブ・バリュー・アンド・リスク(COVER)は、透明で完全かつ説明可能なリスク評価を実行する上で、オブジェクトとそれらの関係がいかに重要であるかを強調している。
本稿では、リスクアセスメントのための新しいフレームワークであるDODGEを提示することにより、COVERが提案する概念(オブジェクト間の分断やイベント/アクションへのオブジェクトの関与など)を運用する。
DODGEは、オントロジーとフォーマルメソッドの規律を、より表現力のあるモデリング形式主義、オブジェクト指向破壊グラフ(ODG)、論理(ODGLog)、中間クエリ言語(ODGLang)によって構成されるオントロジー対応の形式フレームワークにブリッジすることで、リスクのための検証済みの形式モデルの表現性(すなわち、フォールトツリーとアタックツリー)を強化する。
これらにより、DODGEは、リスク評価者が破壊の伝播、破壊可能性、リスクレベルに関する疑問を提起し、オブジェクトの基本的な役割を常に見極めることができる。
関連論文リスト
- A Formal Framework for Assessing and Mitigating Emergent Security Risks in Generative AI Models: Bridging Theory and Dynamic Risk Mitigation [0.3413711585591077]
大規模言語モデル(LLM)や拡散モデルを含む生成AIシステムが急速に進歩するにつれ、その採用が増加し、新たな複雑なセキュリティリスクがもたらされた。
本稿では,これらの突発的なセキュリティリスクを分類・緩和するための新しい形式的枠組みを提案する。
我々は、潜時空間利用、マルチモーダル・クロスアタック・ベクター、フィードバックループによるモデル劣化など、未探索のリスクを特定した。
論文 参考訳(メタデータ) (2024-10-15T02:51:32Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - "Glue pizza and eat rocks" -- Exploiting Vulnerabilities in Retrieval-Augmented Generative Models [74.05368440735468]
Retrieval-Augmented Generative (RAG)モデルにより大規模言語モデル(LLM)が強化される
本稿では,これらの知識基盤の開放性を敵が活用できるセキュリティ上の脅威を示す。
論文 参考訳(メタデータ) (2024-06-26T05:36:23Z) - The Reasoning Under Uncertainty Trap: A Structural AI Risk [0.0]
RUUを人間と機械の両方にとって困難なものにしているのは、レポートにある。
この誤用リスクが、基盤となる構造的リスクのネットワークとどのように結びつくのかを詳述する。
論文 参考訳(メタデータ) (2024-01-29T17:16:57Z) - Typology of Risks of Generative Text-to-Image Models [1.933681537640272]
本稿では,DALL-EやMidjourneyといった現代テキスト・画像生成モデルにかかわる直接的なリスクと害について検討する。
これらのリスクの理解と治療に関する知識のギャップは,すでに解決されているものの,我々のレビューでは明らかである。
データバイアスから悪意のある使用まで、22の異なるリスクタイプを特定します。
論文 参考訳(メタデータ) (2023-07-08T20:33:30Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Assessing Risks and Modeling Threats in the Internet of Things [0.0]
我々は、敵の資産、敵の行動、悪用可能な脆弱性、あらゆるIoT攻撃の構成要素である妥協されたプロパティを記述したIoT攻撃分類を開発する。
我々は、このIoT攻撃分類を、共同リスク評価と成熟度評価の枠組みを設計するための基盤として利用しています。
このIoTフレームワークの有用性は、複数の製造業者のコンテキストにおけるケーススタディの実装によって強調される。
論文 参考訳(メタデータ) (2021-10-14T23:36:00Z) - A Framework for Institutional Risk Identification using Knowledge Graphs
and Automated News Profiling [5.631924211771643]
世界中の組織は、世界中の運用に影響を与えるさまざまなリスクに直面しています。
リスクが生まれる前に潜在的なリスクを検知し、評価する、堅牢なリスク識別プロセスを持つことが不可欠である。
論文 参考訳(メタデータ) (2021-09-19T11:06:12Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。