論文の概要: Foundational Analysis of Safety Engineering Requirements (SAFER)
- arxiv url: http://arxiv.org/abs/2601.06335v1
- Date: Fri, 09 Jan 2026 22:13:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.756583
- Title: Foundational Analysis of Safety Engineering Requirements (SAFER)
- Title(参考訳): 安全工学要件(SAFER)の基礎分析
- Authors: Noga Chemo, Yaniv Mordecai, Yoram Reich,
- Abstract要約: 安全工学の基礎解析のための枠組み(SAFER)について紹介する。
SAFERは、複雑な安全クリティカルシステムに対する安全要件の生成と分析を改善するために、ジェネレーティブAIによってサポートされているモデル駆動の方法論である。
我々は、生成AIを形式的なモデルで拡張し、体系的にクエリして、有意義な初期段階の安全要件を提供する必要があることを示す。
- 参考スコア(独自算出の注目度): 1.7205106391379026
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce a framework for Foundational Analysis of Safety Engineering Requirements (SAFER), a model-driven methodology supported by Generative AI to improve the generation and analysis of safety requirements for complex safety-critical systems. Safety requirements are often specified by multiple stakeholders with uncoordinated objectives, leading to gaps, duplications, and contradictions that jeopardize system safety and compliance. Existing approaches are largely informal and insufficient for addressing these challenges. SAFER enhances Model-Based Systems Engineering (MBSE) by consuming requirement specification models and generating the following results: (1) mapping requirements to system functions, (2) identifying functions with insufficient requirement specifications, (3) detecting duplicate requirements, and (4) identifying contradictions within requirement sets. SAFER provides structured analysis, reporting, and decision support for safety engineers. We demonstrate SAFER on an autonomous drone system, significantly improving the detection of requirement inconsistencies, enhancing both efficiency and reliability of the safety engineering process. We show that Generative AI must be augmented by formal models and queried systematically, to provide meaningful early-stage safety requirement specifications and robust safety architectures.
- Abstract(参考訳): 我々は、複雑な安全クリティカルシステムにおける安全要件の生成と分析を改善するために、ジェネレーティブAIが支援するモデル駆動の方法論である、安全工学要件の基礎解析(SAFER)フレームワークを紹介する。
安全要件は、無調整の目的を持つ複数の利害関係者によって指定され、システムの安全性とコンプライアンスを阻害するギャップ、重複、矛盾につながります。
既存のアプローチはほとんど非公式であり、これらの課題に対処するには不十分である。
SAFERは,要件仕様モデルを消費し,(1)要件をシステム機能にマッピングすること,(2)要件仕様の不十分な機能を特定すること,(3)重複要求を検出すること,(4)要件セット内の矛盾を識別すること,といった結果を生成することにより,モデルベースシステム工学(MBSE)を強化する。
SAFERは、安全エンジニアのための構造化分析、レポート、意思決定支援を提供する。
自律型ドローンシステム上でSAFERを実証し、要求不整合の検出を大幅に改善し、安全工学プロセスの効率性と信頼性を向上する。
我々は、生成AIは形式的なモデルによって拡張され、体系的にクエリされ、有意義な初期段階の安全要件仕様と堅牢な安全アーキテクチャを提供する必要があることを示す。
関連論文リスト
- Event-Chain Analysis for Automated Driving and ADAS Systems: Ensuring Safety and Meeting Regulatory Timing Requirements [0.0]
本稿ではイベント・チェーン・モデリングに基づく構造化されたホワイトボックス手法を提案する。
Black-Boxのアプローチとは異なり、Event-Chain Analysisは各機能コンポーネントのタイミング動作について透過的な洞察を提供する。
本手法は、エンドツーエンドのタイミング制約の導出、モデル化、検証を可能にする。
論文 参考訳(メタデータ) (2025-11-22T15:22:05Z) - The Alignment Trap: Complexity Barriers [0.0]
本稿は、AIアライメントは単に難しいだけでなく、基本的な論理的矛盾に基づくものである、と論じる。
私たちは、すべての必要な安全ルールを列挙できないため、マシンラーニングを正確に使用しています。
このパラドックスは、5つの独立した数学的証明によって確認される。
論文 参考訳(メタデータ) (2025-06-12T02:30:30Z) - Towards provable probabilistic safety for scalable embodied AI systems [79.31011047593492]
エンボディードAIシステムは、様々なアプリケーションでますます普及している。
複雑な運用環境での安全性確保は依然として大きな課題である。
このパースペクティブは、安全で大規模に実施されたAIシステムを安全クリティカルなアプリケーションに採用するための道筋を提供する。
論文 参考訳(メタデータ) (2025-06-05T15:46:25Z) - Incorporating Verification Standards for Security Requirements Generation from Functional Specifications [12.428384271131407]
F2SRD(Function to Security Requirements Derivation)は、機能仕様からセキュリティ要件(SR)を積極的に引き出す自動アプローチである。
まず、FRとVRペアのカスタムデータベースでトレーニングされたVRレトリバーを開発し、ASVSから適用可能なVRを積極的に選択できるようにします。
第二に、これらのVRは、SRを生成する際にGPT4を誘導する構造化プロンプトを構築するために使用される。
論文 参考訳(メタデータ) (2025-05-17T05:47:46Z) - Engineering Risk-Aware, Security-by-Design Frameworks for Assurance of Large-Scale Autonomous AI Models [0.0]
本稿では,大規模自律型AIシステムを対象とした企業レベルのリスク認識型セキュリティ・バイ・デザイン手法を提案する。
敵的および運用的ストレス下でのモデル動作の証明可能な保証を提供する統一パイプラインについて詳述する。
国家安全保障、オープンソースモデルガバナンス、産業自動化におけるケーススタディは、脆弱性とコンプライアンスのオーバーヘッドの計測可能な削減を実証している。
論文 参考訳(メタデータ) (2025-05-09T20:14:53Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Safeguarding Learning-based Control for Smart Energy Systems with
Sampling Specifications [0.31498833540989407]
エネルギーシステムの制御における強化学習を用いた課題について検討し,性能要件とは別に,停電回避などの安全性要件も検討した。
実時間時相論理におけるこれらの安全要件が,線形時相論理への離散化によってどのように強化されるのかを詳述する。
論文 参考訳(メタデータ) (2023-08-11T11:09:06Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。