論文の概要: Safety Case Templates for Autonomous Systems
- arxiv url: http://arxiv.org/abs/2102.02625v2
- Date: Thu, 11 Mar 2021 12:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:19:55.015781
- Title: Safety Case Templates for Autonomous Systems
- Title(参考訳): 自律システムのための安全ケーステンプレート
- Authors: Robin Bloomfield, Gareth Fletcher, Heidy Khlaaf, Luke Hinde, Philippa
Ryan
- Abstract要約: 本報告では、機械学習(ML)コンポーネントを含む自律システムのデプロイと運用を支援する安全保証引数テンプレートについて述べる。
レポートはまた、必要に応じてテンプレートを強化し、レビューし、適応するために使用できる、議論の敗者に対する一般的なテンプレートと証拠の信頼を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report documents safety assurance argument templates to support the
deployment and operation of autonomous systems that include machine learning
(ML) components. The document presents example safety argument templates
covering: the development of safety requirements, hazard analysis, a safety
monitor architecture for an autonomous system including at least one ML
element, a component with ML and the adaptation and change of the system over
time. The report also presents generic templates for argument defeaters and
evidence confidence that can be used to strengthen, review, and adapt the
templates as necessary. This report is made available to get feedback on the
approach and on the templates. This work was sponsored by the UK Dstl under the
R-cloud framework.
- Abstract(参考訳): 本報告では、機械学習(ML)コンポーネントを含む自律システムのデプロイと運用を支援する安全保証引数テンプレートについて述べる。
安全要件の開発、ハザード分析、少なくとも1つのML要素を含む自律システムの安全監視アーキテクチャ、MLとのコンポーネント、時間とともにシステムの適応と変更を行う。
レポートはまた、必要に応じてテンプレートを強化し、レビューし、適応するために使用できる、議論の敗者に対する一般的なテンプレートと証拠の信頼を示す。
このレポートは、アプローチとテンプレートに関するフィードバックを得るために提供されている。
この作業は、R-cloudフレームワークの下で英国Dstlによって支援された。
関連論文リスト
- Why Safeguarded Ships Run Aground? Aligned Large Language Models' Safety Mechanisms Tend to Be Anchored in The Template Region [13.962617572588393]
テンプレートアンコレッド型安全アライメントは,多種多様な大言語モデル(LLM)にまたがっていることを示す。
我々の力学解析は、推論時ジェイルブレイク攻撃に遭遇した場合、モデルがどのような影響を受けやすいかを示す。
テンプレート領域から安全メカニズムを分離することで,脆弱性の軽減と脱獄攻撃が期待できることを示す。
論文 参考訳(メタデータ) (2025-02-19T18:42:45Z) - Safety case template for frontier AI: A cyber inability argument [2.2628353000034065]
攻撃的サイバー能力のための安全ケーステンプレートを提案する。
リスクモデルを特定し、リスクモデルからプロキシタスクを導出し、プロキシタスクの評価設定を定義し、評価結果を結びつける。
論文 参考訳(メタデータ) (2024-11-12T18:45:08Z) - SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.67623347512368]
MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。
我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。
本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
論文 参考訳(メタデータ) (2024-10-24T17:14:40Z) - AdaShield: Safeguarding Multimodal Large Language Models from Structure-based Attack via Adaptive Shield Prompting [54.931241667414184]
textbfAdaptive textbfShield Promptingを提案する。これは、MLLMを構造ベースのジェイルブレイク攻撃から守るための防御プロンプトで入力をプリペイドする。
我々の手法は、構造に基づくジェイルブレイク攻撃に対するMLLMの堅牢性を一貫して改善することができる。
論文 参考訳(メタデータ) (2024-03-14T15:57:13Z) - A SysML Profile for the Standardized Description of Processes during
System Development [40.539768677361735]
形式化されたプロセス記述(FPD)のためのVDI/VDE 3682標準は、プロセスのシンプルで理解しやすい表現を提供する。
この貢献は、システムモデリング言語(SysML)へのVDI/VDE 3682の統合を促進するドメイン特化モデリング言語(D)の開発に焦点を当てている。
論文 参考訳(メタデータ) (2024-03-11T13:44:38Z) - A General Framework for Verification and Control of Dynamical Models via Certificate Synthesis [54.959571890098786]
システム仕様を符号化し、対応する証明書を定義するためのフレームワークを提供する。
コントローラと証明書を形式的に合成する自動化手法を提案する。
我々のアプローチは、ニューラルネットワークの柔軟性を利用して、制御のための安全な学習の幅広い分野に寄与する。
論文 参考訳(メタデータ) (2023-09-12T09:37:26Z) - Monitoring ROS2: from Requirements to Autonomous Robots [58.720142291102135]
本稿では,構造化自然言語で記述された要件から自律ロボットのランタイムモニタを生成するための形式的アプローチの概要について述べる。
当社のアプローチでは,Fletal Requirement Elicitation Tool (FRET) とランタイム検証フレームワークであるCopilotを,Ogma統合ツールを通じて統合しています。
論文 参考訳(メタデータ) (2022-09-28T12:19:13Z) - Reliability Assessment and Safety Arguments for Machine Learning
Components in Assuring Learning-Enabled Autonomous Systems [19.65793237440738]
LES(Learning-Enabled Systems)のための総合保証フレームワークを提案する。
次に、ML分類器のための新しいモデルに依存しない信頼性評価モデル(RAM)を提案する。
モデル仮定と、我々のRAMが発見したML信頼性を評価するための固有の課題について論じる。
論文 参考訳(メタデータ) (2021-11-30T14:39:22Z) - The missing link: Developing a safety case for perception components in
automated driving [10.43163823170716]
知覚は自動運転システム(AD)の重要な側面であり、機械学習(ML)に大きく依存している。
MLベースのコンポーネントの安全性を保証するという既知の課題にもかかわらず、最近、これらのコンポーネントに対処するユニットレベルの安全ケースの提案が登場した。
本稿では、知覚成分に特化して調整されたリンク引数に対する汎用テンプレートを提案する。
論文 参考訳(メタデータ) (2021-08-30T15:12:27Z) - SMT-Based Safety Verification of Data-Aware Processes under Ontologies
(Extended Version) [71.12474112166767]
我々は、このスペクトルで最も調査されたモデルの1つ、すなわち単純なアーティファクトシステム(SAS)の変種を紹介する。
このDLは適切なモデル理論特性を享受し、後方到達性を適用可能なSASを定義することができ、対応する安全問題のPSPACEにおける決定可能性をもたらす。
論文 参考訳(メタデータ) (2021-08-27T15:04:11Z) - SMT-based Safety Verification of Parameterised Multi-Agent Systems [78.04236259129524]
パラメータ化マルチエージェントシステム(MAS)の検証について検討する。
特に、与えられた状態公式として特徴づけられる不要な状態が、所定のMASで到達可能かどうかについて検討する。
論文 参考訳(メタデータ) (2020-08-11T15:24:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。