論文の概要: AI Safety Assurance in Electric Vehicles: A Case Study on AI-Driven SOC Estimation
- arxiv url: http://arxiv.org/abs/2509.03270v1
- Date: Wed, 03 Sep 2025 12:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.517595
- Title: AI Safety Assurance in Electric Vehicles: A Case Study on AI-Driven SOC Estimation
- Title(参考訳): 電気自動車におけるAI安全保証--AI駆動型SOC推定の事例研究
- Authors: Martin Skoglund, Fredrik Warg, Aria Mirzai, Anders Thorsen, Karl Lundgren, Peter Folkesson, Bastian Havers-zulka,
- Abstract要約: 電気自動車(EV)における人工知能(AI)技術の統合は、安全保証に固有の課題をもたらす。
従来の評価手法は、AIベースの機能の評価を目標とせず、進化する標準とプラクティスを必要としている。
本稿では、最近リリースされたISO/PAS 8800とISO 26262を組み合わせることで、EVにおけるAIコンポーネントの独立評価を実現する方法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating Artificial Intelligence (AI) technology in electric vehicles (EV) introduces unique challenges for safety assurance, particularly within the framework of ISO 26262, which governs functional safety in the automotive domain. Traditional assessment methodologies are not geared toward evaluating AI-based functions and require evolving standards and practices. This paper explores how an independent assessment of an AI component in an EV can be achieved when combining ISO 26262 with the recently released ISO/PAS 8800, whose scope is AI safety for road vehicles. The AI-driven State of Charge (SOC) battery estimation exemplifies the process. Key features relevant to the independent assessment of this extended evaluation approach are identified. As part of the evaluation, robustness testing of the AI component is conducted using fault injection experiments, wherein perturbed sensor inputs are systematically introduced to assess the component's resilience to input variance.
- Abstract(参考訳): 電気自動車(EV)における人工知能(AI)技術の統合は、特に自動車分野における機能的安全性を管理するISO 26262の枠組みにおいて、安全性を保証するためのユニークな課題をもたらす。
従来の評価手法は、AIベースの機能の評価を目標とせず、進化する標準とプラクティスを必要としている。
本稿では、最近リリースされたISO/PAS 8800とISO 26262を組み合わせることで、EVにおけるAIコンポーネントの独立評価を実現する方法について考察する。
AI駆動の充電状態(SOC)バッテリ推定は、そのプロセスを実証する。
この拡張評価手法の独立性評価に関連する重要な特徴を同定した。
評価の一環として、AIコンポーネントのロバストネステストは、障害注入実験を用いて実施され、入力分散に対するコンポーネントのレジリエンスを評価するために、摂動センサ入力を体系的に導入する。
関連論文リスト
- The Necessity of a Holistic Safety Evaluation Framework for AI-Based Automation Features [0.0]
運転自動化機能に関する機能的安全性(SOTIF)と機能的安全性(FuSa)の分析は、伝統的に、厳格な安全影響評価から品質管理(QM)コンポーネントを除外してきた。
人工知能(AI)統合の最近の進歩は、そのようなコンポーネントがSOTIF関連の有害リスクに寄与できることを明らかにしている。
本稿では、AIコンポーネントのリスクを特定し軽減するために、包括的FuSa、SOTIF、AI標準駆動手法を採用することを主張する。
論文 参考訳(メタデータ) (2026-02-05T00:22:24Z) - Toward an Evaluation Science for Generative AI Systems [22.733049816407114]
生成型AIシステムの評価科学の成熟を提唱する。
特に,評価指標を実世界のパフォーマンスに適用し,評価指標を反復的に洗練し,評価機関と基準を確立すること,の3つの重要な教訓を提示する。
論文 参考訳(メタデータ) (2025-03-07T11:23:48Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - S-RAF: A Simulation-Based Robustness Assessment Framework for Responsible Autonomous Driving [6.559634434583204]
自動運転のためのシミュレーションベースロバストネス評価フレームワーク(S-RAF)を紹介する。
堅牢性を定量化することで、S-RAFは開発者やステークホルダーが安全で責任のある運転エージェントを構築するのを助ける。
S-RAFは、テストコストの削減や、現実世界でテストするのが安全でないエッジケースを探索する機能など、大きなメリットがある。
論文 参考訳(メタデータ) (2024-08-16T07:37:05Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - On STPA for Distributed Development of Safe Autonomous Driving: An Interview Study [0.7851536646859475]
System-Theoretic Process Analysis (STPA)は、防衛や航空宇宙といった安全関連分野に適用される新しい手法である。
STPAは、分散システム開発とマルチアトラクション設計レベルを備えた自動車システム工学において、完全には有効でない前提条件を前提としている。
これは継続的開発とデプロイメントにおける保守性の問題と見なすことができる。
論文 参考訳(メタデータ) (2024-03-14T15:56:02Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Simulation-based Safety Assurance for an AVP System incorporating
Learning-Enabled Components [0.6526824510982802]
テスト、検証、検証 AD/ADASセーフティクリティカルなアプリケーションが大きな課題のひとつとして残っています。
安全クリティカルな学習可能システムの検証と検証を目的としたシミュレーションベースの開発プラットフォームについて説明する。
論文 参考訳(メタデータ) (2023-09-28T09:00:31Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。