論文の概要: Revolutionizing Validation and Verification: Explainable Testing Methodologies for Intelligent Automotive Decision-Making Systems
- arxiv url: http://arxiv.org/abs/2506.16876v1
- Date: Fri, 20 Jun 2025 09:55:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.402399
- Title: Revolutionizing Validation and Verification: Explainable Testing Methodologies for Intelligent Automotive Decision-Making Systems
- Title(参考訳): 検証と検証の革命: インテリジェントな自動車意思決定システムのための説明可能なテスト手法
- Authors: Halit Eris, Stefan Wagner,
- Abstract要約: 本稿では,検証・検証プロセスに説明可能性,透明性,解釈可能性を統合する手法を提案する。
本稿では,文献レビューとステークホルダ入力によるV&V要件の精査,大規模言語モデル(LLM)による説明可能なテストシナリオの生成,シミュレーション環境におけるリアルタイム検証の実現を提案する。
私たちのゴールは、V&Vの合理化、リソースの削減、自動運転技術へのユーザの信頼の構築です。
- 参考スコア(独自算出の注目度): 2.7143159361691227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous Driving Systems (ADS) use complex decision-making (DM) models with multimodal sensory inputs, making rigorous validation and verification (V&V) essential for safety and reliability. These models pose challenges in diagnosing failures, tracing anomalies, and maintaining transparency, with current manual testing methods being inefficient and labor-intensive. This vision paper presents a methodology that integrates explainability, transparency, and interpretability into V&V processes. We propose refining V&V requirements through literature reviews and stakeholder input, generating explainable test scenarios via large language models (LLMs), and enabling real-time validation in simulation environments. Our framework includes test oracle, explanation generation, and a test chatbot, with empirical studies planned to evaluate improvements in diagnostic efficiency and transparency. Our goal is to streamline V&V, reduce resources, and build user trust in autonomous technologies.
- Abstract(参考訳): 自律運転システム(ADS)は、マルチモーダルな感覚入力を備えた複雑な意思決定(DM)モデルを使用し、厳密な検証と検証(V&V)を安全性と信頼性に欠かせないものにしている。
これらのモデルは、障害の診断、異常のトレース、透明性維持に課題をもたらし、現在の手動テスト手法は非効率で労働集約的だ。
本稿では,V&Vプロセスに説明可能性,透明性,解釈可能性を統合する手法を提案する。
本稿では,文献レビューとステークホルダ入力によるV&V要件の精査,大規模言語モデル(LLM)による説明可能なテストシナリオの生成,シミュレーション環境におけるリアルタイム検証の実現を提案する。
我々のフレームワークには、診断効率と透明性の向上を評価するための実証的研究が計画されているテストオラクル、説明生成、テストチャットボットが含まれる。
私たちのゴールは、V&Vの合理化、リソースの削減、自動運転技術へのユーザの信頼の構築です。
関連論文リスト
- FACT-AUDIT: An Adaptive Multi-Agent Framework for Dynamic Fact-Checking Evaluation of Large Language Models [79.41859481668618]
大規模言語モデル(LLM)はファクトチェック研究を大幅に進歩させた。
既存のファクトチェック評価手法は静的データセットと分類基準に依存している。
本稿では, LLMのファクトチェック機能を適応的かつ動的に評価するエージェント駆動型フレームワークであるFACT-AUDITを紹介する。
論文 参考訳(メタデータ) (2025-02-25T07:44:22Z) - Breaking Focus: Contextual Distraction Curse in Large Language Models [68.4534308805202]
大規模言語モデル(LLM)の重大な脆弱性について検討する。
この現象は、セマンティック・コヒーレントだが無関係な文脈で修正された質問に対して、モデルが一貫した性能を維持することができないときに発生する。
本稿では,CDVの例を自動生成する効率的な木探索手法を提案する。
論文 参考訳(メタデータ) (2025-02-03T18:43:36Z) - Are VLMs Ready for Autonomous Driving? An Empirical Study from the Reliability, Data, and Metric Perspectives [56.528835143531694]
視覚言語モデル(VLM)を評価するために設計されたベンチマークデータセットであるDriveBenchを紹介する。
以上の結果から, VLMは視覚的接地ではなく, 一般的な知識やテキストの手がかりから得られる, もっともらしい応答をしばしば生み出すことが明らかとなった。
本稿では,頑健な視覚的接地とマルチモーダル理解を優先する評価指標を提案する。
論文 参考訳(メタデータ) (2025-01-07T18:59:55Z) - A Unified Framework for Evaluating the Effectiveness and Enhancing the Transparency of Explainable AI Methods in Real-World Applications [2.0681376988193843]
AIモデルの特徴である"ブラックボックス"は、解釈可能性、透明性、信頼性を制約する。
本研究では,AIモデルによる説明の正確性,解釈可能性,堅牢性,公正性,完全性を評価するための統合XAI評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-05T05:30:10Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Autonomous Robotic Swarms: A Corroborative Approach for Verification and Validation [0.9937570340630559]
本稿では,自律型ロボット群を正式に検証し,検証する手法を提案する。
本研究は,実ロボットを用いた形式的検証とシミュレーションと実験的検証を組み合わせたものである。
論文 参考訳(メタデータ) (2024-07-22T08:40:05Z) - Zero-Knowledge Proof-based Verifiable Decentralized Machine Learning in Communication Network: A Comprehensive Survey [31.111210313340454]
マシンラーニングに対する分散型アプローチは、信頼性と妥当性に関する課題を導入します。
我々はZKP-VML(Zero-Knowledge Proof-based Verifiable Machine Learning)の総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-10-23T12:15:23Z) - Testing Deep Learning Models: A First Comparative Study of Multiple
Testing Techniques [15.695048480513536]
視覚ベースのシステム(VBS)は、自律運転、ロボット手術、重要なインフラ監視、航空および海上交通管制などに用いられる。
ディープラーニング(DL)は、自律運転、ロボット手術、重要なインフラ監視、空気および海洋交通制御などの重要な応用において、視覚ベースのシステム(VBS)の能力に革命をもたらした。
論文 参考訳(メタデータ) (2022-02-24T15:05:19Z) - Technical Language Supervision for Intelligent Fault Diagnosis in
Process Industry [1.8574771508622119]
プロセス産業では,人的専門家を支援する自動故障診断手法による状態監視システムにより,メンテナンス効率,プロセス持続可能性,職場の安全が向上する。
インテリジェント障害診断(IFD)における大きな課題は、モデルのトレーニングと検証に必要なラベルの正確なデータセットを開発することである。
産業データセットにおける技術的言語アノテーションとしての、障害特性と重大性差別に関するドメイン固有知識。
これにより、産業データに基づくIFDシステムのための技術言語監視(TLS)ソリューションを開発する機会が生まれる。
論文 参考訳(メタデータ) (2021-12-11T18:59:40Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。