論文の概要: A Systematic Mapping Study on Software Architecture for AI-based Mobility Systems
- arxiv url: http://arxiv.org/abs/2506.01595v1
- Date: Mon, 02 Jun 2025 12:29:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.300808
- Title: A Systematic Mapping Study on Software Architecture for AI-based Mobility Systems
- Title(参考訳): AIに基づくモビリティシステムのためのソフトウェアアーキテクチャに関するシステムマッピング研究
- Authors: Amra Ramic, Stefan Kugele,
- Abstract要約: 我々は、AIベースの安全クリティカルシステムにおける、既存のアーキテクチャの欠落の概要、安全性への貢献、および成熟度レベルの提供を目的としている。
1,639の初等研究から,AIベースの安全クリティカルシステムにおいて,ソフトウェアアーキテクチャによる安全性保証を扱う38の関連研究を選択した。
選択された研究は、様々な基準を用いて、研究の質問に答え、この研究領域のギャップを識別した。
- 参考スコア(独自算出の注目度): 0.5156484100374057
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Background: Due to their diversity, complexity, and above all importance, safety-critical and dependable systems must be developed with special diligence. Criticality increases as these systems likely contain artificial intelligence (AI) components known for their uncertainty. As software and reference architectures form the backbone of any successful system, including safety-critical dependable systems with learning-enabled components, choosing the suitable architecture that guarantees safety despite uncertainties is of great eminence. Aim: We aim to provide the missing overview of all existing architectures, their contribution to safety, and their level of maturity in AI-based safety-critical systems. Method: To achieve this aim, we report a systematic mapping study. From a set of 1,639 primary studies, we selected 38 relevant studies dealing with safety assurance through software architecture in AI-based safety-critical systems. The selected studies were then examined using various criteria to answer the research questions and identify gaps in this area of research. Results: Our findings showed which architectures have been proposed and to what extent they have been implemented. Furthermore, we identified gaps in different application areas of those systems and explained these gaps with various arguments. Conclusion: As the AI trend continues to grow, the system complexity will inevitably increase, too. To ensure the lasting safety of the systems, we provide an overview of the state of the art, intending to identify best practices and research gaps and direct future research more focused.
- Abstract(参考訳): 背景: その多様性、複雑さ、そしてそれ以上の重要さのために、安全クリティカルで信頼性の高いシステムは特別に勤勉に開発されなければならない。
これらのシステムには、不確実性で知られる人工知能(AI)コンポーネントが含まれる可能性が高いため、臨界度は増加する。
ソフトウェアと参照アーキテクチャは、学習可能なコンポーネントを持つ安全クリティカルな信頼性の高いシステムを含む、成功しているシステムのバックボーンを形成するため、不確実性にもかかわらず安全性を保証する適切なアーキテクチャを選択することは、非常に顕著である。
Aim: AIベースの安全クリティカルシステムにおいて、既存のすべてのアーキテクチャの欠如した概要、安全性への貢献、成熟度レベルの提供を目標としています。
方法: この目的を達成するため, 系統地図研究を報告する。
1,639の初等研究から,AIベースの安全クリティカルシステムにおいて,ソフトウェアアーキテクチャによる安全性保証を扱う38の関連研究を選択した。
選択された研究は、様々な基準を用いて、研究の質問に答え、この研究領域のギャップを識別した。
その結果,どのアーキテクチャが提案され,どの程度に実装されているかが明らかになった。
さらに、これらのシステムの異なる適用領域におけるギャップを特定し、これらのギャップを様々な議論で説明した。
結論: AIのトレンドが拡大し続ければ、システムの複雑さも必然的に増加するでしょう。
システムの持続的安全性を確保するため、私たちは、ベストプラクティスと研究ギャップを特定し、より焦点を絞った将来の研究を促進することを目的として、最先端技術の概要を提供する。
関連論文リスト
- A quantitative framework for evaluating architectural patterns in ML systems [49.1574468325115]
本研究では,MLシステムにおけるアーキテクチャパターンの定量的評価のための枠組みを提案する。
コスト効率のよいCPUベースの推論のためのスケーラビリティとパフォーマンスメトリクスに注目します。
論文 参考訳(メタデータ) (2025-01-20T15:30:09Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - ACCESS: Assurance Case Centric Engineering of Safety-critical Systems [9.388301205192082]
保証ケースは、安全性やセキュリティなどの重要なシステム特性について、コミュニケーションし、信頼性を評価するために使用されます。
近年,システム保証活動の効率化と品質向上のために,モデルに基づくシステム保証アプローチが普及している。
モデルに基づくシステム保証ケースが異種工学的アーティファクトにどのように辿り着くかを示す。
論文 参考訳(メタデータ) (2024-03-22T14:29:50Z) - Architecting Safer Autonomous Aviation Systems [1.2599533416395767]
本稿では,従来の航空システムで使用される共通アーキテクチャパターンについて考察し,安全性と安全性の保証がもたらす影響について考察する。
安全性を建築上の特性として考慮し、設計ライフサイクルの初期段階において、安全要件の割り当てとアーキテクチャ上のトレードオフの両方について論じる。
論文 参考訳(メタデータ) (2023-01-09T21:02:18Z) - An Exploratory Study of AI System Risk Assessment from the Lens of Data
Distribution and Uncertainty [4.99372598361924]
ディープラーニング(DL)が推進力となり、多くのドメインやアプリケーションで広く採用されている。
本稿では,データ分布と不確実性角の両方からAIシステムのリスク評価を早期に検討する。
論文 参考訳(メタデータ) (2022-12-13T03:34:25Z) - Proceedings of the Robust Artificial Intelligence System Assurance
(RAISA) Workshop 2022 [0.0]
RAISAワークショップは、堅牢な人工知能(AI)と機械学習(ML)システムの研究、開発、応用に焦点を当てる。
特定のMLアルゴリズムに関してロバストネスを研究するのではなく、システムアーキテクチャのレベルでロバストネスの保証を検討することを目的としています。
論文 参考訳(メタデータ) (2022-02-10T01:15:50Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。