論文の概要: Defining Operational Conditions for Safety-Critical AI-Based Systems from Data
- arxiv url: http://arxiv.org/abs/2601.22118v1
- Date: Thu, 29 Jan 2026 18:46:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:50.085823
- Title: Defining Operational Conditions for Safety-Critical AI-Based Systems from Data
- Title(参考訳): データを用いた安全クリティカルAIシステムのための運用条件の定義
- Authors: Johann Christensen, Elena Hoemann, Frank Köster, Sven Hallerbach,
- Abstract要約: 運用設計ドメイン(ODD)は、AIベースのシステムの認証のために、多くのドメインで必要とされる。
本稿では,複数次元のカーネルベース表現を用いた事前収集データから ODD を定義するための新しいセーフティ・バイ・デザイン手法を提案する。
このアプローチは、モンテカルロ法と、将来の安全臨界衝突回避システムのための実世界の航空ユースケースの両方を通じて検証されている。
- 参考スコア(独自算出の注目度): 0.7816377212023298
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Artificial Intelligence (AI) has been on the rise in many domains, including numerous safety-critical applications. However, for complex systems found in the real world, or when data already exist, defining the underlying environmental conditions is extremely challenging. This often results in an incomplete description of the environment in which the AI-based system must operate. Nevertheless, this description, called the Operational Design Domain (ODD), is required in many domains for the certification of AI-based systems. Traditionally, the ODD is created in the early stages of the development process, drawing on sophisticated expert knowledge and related standards. This paper presents a novel Safety-by-Design method to a posteriori define the ODD from previously collected data using a multi-dimensional kernel-based representation. This approach is validated through both Monte Carlo methods and a real-world aviation use case for a future safety-critical collision-avoidance system. Moreover, by defining under what conditions two ODDs are equal, the paper shows that the data-driven ODD can equal the original, underlying hidden ODD of the data. Utilizing the novel, Safe-by-Design kernel-based ODD enables future certification of data-driven, safety-critical AI-based systems.
- Abstract(参考訳): 人工知能(AI)は多くの領域で増加しており、多くの安全クリティカルな応用がある。
しかし、現実世界で見られる複雑なシステム、あるいはデータがすでに存在する場合、基礎となる環境条件を定義することは極めて困難である。
これはしばしば、AIベースのシステムが動作しなければならない環境について不完全な記述をもたらす。
それでも、オペレーショナルデザインドメイン(ODD)と呼ばれるこの記述は、AIベースのシステムの認証のために多くのドメインで必要とされる。
伝統的に、ODDは開発プロセスの初期段階で作成され、洗練された専門知識と関連する標準に基づいています。
本稿では,複数次元のカーネルベース表現を用いた事前収集データから ODD を定義するための新しいセーフティ・バイ・デザイン手法を提案する。
このアプローチは、モンテカルロ法と、将来の安全臨界衝突回避システムのための実世界の航空ユースケースの両方を通じて検証されている。
さらに,2つの ODD がどのような条件で等しいかを定義することで,データ駆動型 ODD が元の,基盤となるデータ隠蔽型 ODD に等しいことを示す。
新たなSafe-by-DesignカーネルベースのODDを使用することで、データ駆動で安全クリティカルなAIベースのシステムの将来的な認証が可能になる。
関連論文リスト
- AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework [31.261980405052938]
人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-11-16T16:10:38Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - AI-Driven Intrusion Detection Systems (IDS) on the ROAD Dataset: A Comparative Analysis for Automotive Controller Area Network (CAN) [4.081467217340597]
コントロールエリアネットワーク(CAN)バスは、電子制御ユニット(ECU)間の車内通信を管理する中央システムである。
CANプロトコルは、固有の脆弱性、暗号化と認証の欠如、攻撃面の拡大、堅牢なセキュリティ対策を必要とするセキュリティ上の問題を引き起こす。
本稿では、ステルスと洗練された注入を含む最新のROADデータセットについて考察する。
論文 参考訳(メタデータ) (2024-08-30T12:26:23Z) - Towards Scenario-based Safety Validation for Autonomous Trains with Deep
Generative Models [0.0]
シナリオベース検証のための深層生成モデルを用いたデータシミュレーションの有用性に関する実践経験を報告する。
本研究では,鉄道シーンをより深い生成モデルで意味論的に編集し,限られた量の試験データをより代表的なものにする能力を実証する。
論文 参考訳(メタデータ) (2023-10-16T17:55:14Z) - Simulation-based Safety Assurance for an AVP System incorporating
Learning-Enabled Components [0.6526824510982802]
テスト、検証、検証 AD/ADASセーフティクリティカルなアプリケーションが大きな課題のひとつとして残っています。
安全クリティカルな学習可能システムの検証と検証を目的としたシミュレーションベースの開発プラットフォームについて説明する。
論文 参考訳(メタデータ) (2023-09-28T09:00:31Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。