論文の概要: Can AI Generate more Comprehensive Test Scenarios? Review on Automated Driving Systems Test Scenario Generation Methods
- arxiv url: http://arxiv.org/abs/2512.15422v1
- Date: Wed, 17 Dec 2025 13:14:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.998535
- Title: Can AI Generate more Comprehensive Test Scenarios? Review on Automated Driving Systems Test Scenario Generation Methods
- Title(参考訳): AIはより包括的なテストシナリオを生成することができるか?自動駆動システムテストシナリオ生成手法のレビュー
- Authors: Ji Zhou, Yongqi Zhao, Yixian Hu, Hexuan Li, Zhengguo Gu, Nan Xu, Arno Eichberger,
- Abstract要約: 本総説では,20152025年の調査を通じて,31の初等研究と10のサーベイを体系的に分析した。
従来のアプローチは専門家の知識、オントロジー、自然主義的な運転または事故データに依存しているが、最近の開発では、多種多様な安全クリティカルなシナリオを合成するために、大きな言語モデル、敵ネットワーク、拡散モデル、強化学習フレームワークなどの生成モデルを利用している。
- 参考スコア(独自算出の注目度): 19.39586739934126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring the safety and reliability of Automated Driving Systems (ADS) remains a critical challenge, as traditional verification methods such as large-scale on-road testing are prohibitively costly and time-consuming.To address this,scenario-based testing has emerged as a scalable and efficient alternative,yet existing surveys provide only partial coverage of recent methodological and technological advances.This review systematically analyzes 31 primary studies,and 10 surveys identified through a comprehensive search spanning 2015~2025;however,the in-depth methodological synthesis and comparative evaluation focus primarily on recent frameworks(2023~2025),reflecting the surge of Artificial Intelligent(AI)-assisted and multimodal approaches in this period.Traditional approaches rely on expert knowledge,ontologies,and naturalistic driving or accident data,while recent developments leverage generative models,including large language models,generative adversarial networks,diffusion models,and reinforcement learning frameworks,to synthesize diverse and safety-critical scenarios.Our synthesis identifies three persistent gaps:the absence of standardized evaluation metrics,limited integration of ethical and human factors,and insufficient coverage of multimodal and Operational Design Domain (ODD)-specific scenarios.To address these challenges,this review contributes a refined taxonomy that incorporates multimodal extensions,an ethical and safety checklist for responsible scenario design,and an ODD coverage map with a scenario-difficulty schema to enable transparent benchmarking.Collectively,these contributions provide methodological clarity for researchers and practical guidance for industry,supporting reproducible evaluation and accelerating the safe deployment of higher-level ADS.
- Abstract(参考訳): ADS(Automated Driving Systems)の安全性と信頼性の確保は,依然として重要な課題である。大規模なオンロードテストなどの従来の検証手法は,費用がかからず,時間を要する。これに対処するため,既存の調査は,近年の方法論的および技術的進歩を部分的にカバーするだけの,スケーラブルで効率的な代替手段として現れている。本レビューでは,2015~2025年の包括的検索を通じて,31の初等研究と10のサーベイを体系的に分析する。しかしながら,近年のフレームワーク(2023~2025)を中心に,詳細な方法論的合成と比較評価を主に重視する,最近のフレームワーク(2023~2025)に焦点をあてた,人工知能(AI)によるマルチモーダルアプローチの急激な普及を反映した,専門家の知識,知識,博物的,博物的,自然的データ駆動モデル,近年の事故モデル,大規模データモデル,予測モデル,高次的モデル,高次的モデル,高次モデル,高次モデル,高次モデル,高次モデル,高次モデル,高次モデル,高次モデル,高次モデル,高次モデル,高次モデル,高次モデル,高次化,高次化,高次化,高次化,高次化,高次化,高次化,高次化,高次化,高次化,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次,高次的,高次,高次的,高次的,高次的,高次的,高次的,多次的,多次的,高次的,多次的,多次的,多次的,多次的,多次的,多次的,多次的,多次的,多次的,多次的,多次的,多次的,多次的,多次的,多次的,多次的,多次,多次,多次,多次,多次的,多次,多次,多様の3の3の3の3の3の3の3の3の3の3の3の3の3の3の3の3の3つの側面の3の3の3の3の3つの側面がある。
関連論文リスト
- Let the Barbarians In: How AI Can Accelerate Systems Performance Research [80.43506848683633]
我々は、この繰り返しサイクルを、AI駆動システム研究の生成、評価、洗練のサイクルと呼ぶ。
我々はADRSが生成するソリューションが人間の最先端の設計に適合し、さらに優れることを示した。
論文 参考訳(メタデータ) (2025-12-16T18:51:23Z) - Large Language Models for Unit Test Generation: Achievements, Challenges, and the Road Ahead [15.43943391801509]
単体テストは、ソフトウェアの検証には不可欠だが、面倒なテクニックである。
大規模言語モデル(LLM)は、コードセマンティクスとプログラミングパターンに関するデータ駆動の知識を活用することで、この制限に対処する。
このフレームワークは、コアジェネレーティブ戦略と一連の拡張テクニックに関する文献を分析します。
論文 参考訳(メタデータ) (2025-11-26T13:30:11Z) - Real-IAD Variety: Pushing Industrial Anomaly Detection Dataset to a Modern Era [110.83702639978469]
Real-IAD Varietyは、160の異なる対象カテゴリにわたる198,960の高解像度画像からなる、最大かつ最も多様なIADベンチマークである。
その多様性は、28の産業、24の素材タイプ、22のカラーバリエーションを包括的にカバーすることで保証されている。
この重要な分野のイノベーションを促進するために、Real-IAD Varietyが公開される。
論文 参考訳(メタデータ) (2025-11-01T12:58:02Z) - AI-Driven Tools in Modern Software Quality Assurance: An Assessment of Benefits, Challenges, and Future Directions [0.0]
この研究は、現代のAI指向ツールを品質保証プロセスに統合するメリット、課題、および展望を評価することを目的としている。
この研究は、AIがQAに変革をもたらす可能性を実証しているが、これらの技術を実装するための戦略的アプローチの重要性を強調している。
論文 参考訳(メタデータ) (2025-06-19T20:22:47Z) - Anomaly Detection and Generation with Diffusion Models: A Survey [51.61574868316922]
異常検出(AD)は、サイバーセキュリティ、金融、医療、工業製造など、さまざまな分野において重要な役割を担っている。
近年のディープラーニング,特に拡散モデル(DM)の進歩は,大きな関心を集めている。
この調査は、研究者や実践者が様々なアプリケーションにまたがる革新的なADソリューションにDMを利用することをガイドすることを目的としている。
論文 参考訳(メタデータ) (2025-06-11T03:29:18Z) - Towards provable probabilistic safety for scalable embodied AI systems [79.31011047593492]
エンボディードAIシステムは、様々なアプリケーションでますます普及している。
複雑な運用環境での安全性確保は依然として大きな課題である。
このパースペクティブは、安全で大規模に実施されたAIシステムを安全クリティカルなアプリケーションに採用するための道筋を提供する。
論文 参考訳(メタデータ) (2025-06-05T15:46:25Z) - Methods and Trends in Detecting AI-Generated Images: A Comprehensive Review [0.17188280334580194]
GAN(Generative Adversarial Networks)、拡散モデル(Diffusion Models)、変分オートエンコーダ(VAEs)は、高品質なマルチメディアデータの合成を可能にしている。
これらの進歩は、敵の攻撃、非倫理的使用、社会的な危害に関する重大な懸念を引き起こした。
このサーベイは、先進的な生成AIモデルによって生成された合成画像の検出と分類のための最先端技術に関する包括的なレビューを提供する。
論文 参考訳(メタデータ) (2025-02-21T03:16:18Z) - Survey on AI-Generated Media Detection: From Non-MLLM to MLLM [51.91311158085973]
AI生成メディアを検出する方法は急速に進化してきた。
MLLMに基づく汎用検出器は、信頼性検証、説明可能性、ローカライゼーション機能を統合する。
倫理的・セキュリティ的な配慮が、重要な世界的な懸念として浮上している。
論文 参考訳(メタデータ) (2025-02-07T12:18:20Z) - A Systematic Review of Edge Case Detection in Automated Driving: Methods, Challenges and Future Directions [0.3871780652193725]
本稿では,エッジケース検出および評価手法の実用的,階層的なレビューと体系的な分類について述べる。
まず,AVモジュールによる検出手法を分類し,認識関連および軌跡関連エッジケースを含む2つのレベルに分類する。
我々は「知識駆動」アプローチと呼ばれる新しいクラスを導入し、主に文献で見過ごされている。
論文 参考訳(メタデータ) (2024-10-11T03:32:20Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Multimodal Safety-Critical Scenarios Generation for Decision-Making
Algorithms Evaluation [23.43175124406634]
既存のニューラルネットワークベースの自律システムは、敵の攻撃に対して脆弱であることが示されている。
意思決定アルゴリズムの評価のためのフローベースマルチモーダル安全クリティカルシナリオジェネレータを提案する。
生成したトラフィックシナリオを用いて6つの強化学習アルゴリズムを評価し,その堅牢性に関する実証的な結論を提供する。
論文 参考訳(メタデータ) (2020-09-16T15:16:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。