論文の概要: A Survey on the Application of Large Language Models in Scenario-Based Testing of Automated Driving Systems
- arxiv url: http://arxiv.org/abs/2505.16587v1
- Date: Thu, 22 May 2025 12:25:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.277131
- Title: A Survey on the Application of Large Language Models in Scenario-Based Testing of Automated Driving Systems
- Title(参考訳): シナリオベース自動運転システムのテストにおける大規模言語モデルの適用に関する調査
- Authors: Yongqi Zhao, Ji Zhou, Dong Bi, Tomislav Mihalj, Jia Hu, Arno Eichberger,
- Abstract要約: 論文は5つのオープンな課題と潜在的研究の方向性を概説することで締めくくっている。
LLM(Large Language Models)の出現は、シナリオベースのテストを強化する新たな機会をもたらした。
- 参考スコア(独自算出の注目度): 6.608557716494977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The safety and reliability of Automated Driving Systems (ADSs) must be validated prior to large-scale deployment. Among existing validation approaches, scenario-based testing has been regarded as a promising method to improve testing efficiency and reduce associated costs. Recently, the emergence of Large Language Models (LLMs) has introduced new opportunities to reinforce this approach. While an increasing number of studies have explored the use of LLMs in the field of automated driving, a dedicated review focusing on their application within scenario-based testing remains absent. This survey addresses this gap by systematically categorizing the roles played by LLMs across various phased of scenario-based testing, drawing from both academic research and industrial practice. In addition, key characteristics of LLMs and corresponding usage strategies are comprehensively summarized. The paper concludes by outlining five open challenges and potential research directions. To support ongoing research efforts, a continuously updated repository of recent advancements and relevant open-source tools is made available at: https://github.com/ftgTUGraz/LLM4ADSTest.
- Abstract(参考訳): ADS(Automated Driving Systems)の安全性と信頼性は、大規模展開に先立って検証する必要がある。
既存の検証手法の中で、シナリオベースのテストは、テスト効率を改善し、関連するコストを削減するための有望な方法だと考えられてきた。
最近、LLM(Large Language Models)が出現し、このアプローチを強化する新たな機会がもたらされた。
自動運転分野におけるLLMの使用について研究する研究が増えているが、シナリオベースのテストにおけるその応用に焦点を当てた専用のレビューはいまだに残っていない。
本調査は,LLMが果たす役割を,様々な段階のシナリオベーステストで体系的に分類し,学術研究と産業実践の両方から抽出することによって,このギャップに対処する。
また,LLMのキーとなる特徴とそれに対応する利用戦略を包括的に要約した。
論文は5つのオープンな課題と潜在的研究の方向性を概説することで締めくくっている。
進行中の研究活動をサポートするため、最近の進歩と関連するオープンソースツールの継続的に更新されたリポジトリがhttps://github.com/ftgTUGraz/LLM4ADSTestで公開されている。
関連論文リスト
- The Potential of LLMs in Automating Software Testing: From Generation to Reporting [0.0]
手動テストは効果的だが、時間とコストがかかり、自動化メソッドの需要が増大する。
大規模言語モデル(LLM)の最近の進歩は、ソフトウェア工学に大きな影響を与えている。
本稿では,人間の介入を減らし,テスト効率を向上させるため,LSMを用いた自動ソフトウェアテストに対するエージェント指向アプローチについて検討する。
論文 参考訳(メタデータ) (2024-12-31T02:06:46Z) - Exploring Critical Testing Scenarios for Decision-Making Policies: An LLM Approach [14.32199539218175]
本稿では,LLM(Adaptable Large Language Model)によるオンラインテストフレームワークを提案する。
具体的には、LLMの世界の知識と推論能力を活用するために、テンプレート付きプロンプトエンジニアリングを備えた「ジェネレーション・テスト・フィードバック」パイプラインを設計する。
論文 参考訳(メタデータ) (2024-12-09T17:27:04Z) - PentestAgent: Incorporating LLM Agents to Automated Penetration Testing [6.815381197173165]
手動浸透試験は時間と費用がかかる。
大規模言語モデル(LLM)の最近の進歩は、浸透テストを強化する新たな機会を提供する。
我々は,新しいLLMベースの自動浸透試験フレームワークであるPentestAgentを提案する。
論文 参考訳(メタデータ) (2024-11-07T21:10:39Z) - AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化は機械学習アプリケーションにおいて重要な要素である。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、11タスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も効果的なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - AutoSurvey: Large Language Models Can Automatically Write Surveys [77.0458309675818]
本稿では,総合的な文献調査を自動作成する手法であるAutoSurveyを紹介する。
従来の調査論文は、膨大な量の情報と複雑さのために、課題に直面している。
我々の貢献には、調査問題に対する総合的な解決策、信頼性評価方法、AutoSurveyの有効性を実証する実験的な検証が含まれる。
論文 参考訳(メタデータ) (2024-06-10T12:56:06Z) - Test Oracle Automation in the era of LLMs [52.69509240442899]
大規模言語モデル(LLM)は、多様なソフトウェアテストタスクに取り組むのに顕著な能力を示した。
本研究の目的は, 各種のオラクル生成時に生じる課題とともに, LLMs によるオラクルの自動化の可能性について検討することである。
論文 参考訳(メタデータ) (2024-05-21T13:19:10Z) - Automating Research Synthesis with Domain-Specific Large Language Model Fine-Tuning [0.9110413356918055]
本研究は,SLR(Systematic Literature Reviews)の自動化にLLM(Funture-Tuned Large Language Models)を用いた先駆的研究である。
本研究は,オープンソースLLMとともに最新の微調整手法を採用し,SLRプロセスの最終実行段階を自動化するための実用的で効率的な手法を実証した。
その結果, LLM応答の精度は高く, 既存のPRISMAコンフォーミングSLRの複製により検証された。
論文 参考訳(メタデータ) (2024-04-08T00:08:29Z) - A Comprehensive Survey on Test-Time Adaptation under Distribution Shifts [117.72709110877939]
テスト時間適応(TTA)は、事前訓練されたモデルをテスト中に、予測する前にラベルのないデータに適応する可能性がある。
TTAはテスト時間領域適応、テスト時間バッチ適応、オンラインテスト時間適応といったテストデータの形態に基づいて、いくつかの異なるグループに分類される。
論文 参考訳(メタデータ) (2023-03-27T16:32:21Z) - A Survey on Scenario-Based Testing for Automated Driving Systems in
High-Fidelity Simulation [26.10081199009559]
道路上でシステムをテストすることは、現実世界と望ましいアプローチに最も近いが、非常にコストがかかる。
一般的な選択肢は、ADSのパフォーマンスを、よく設計されたシナリオ、すなわちシナリオベースのテストで評価することである。
高忠実度シミュレータはこの設定で、何のシナリオかをテストする際の柔軟性と利便性を最大化するために広く使われている。
論文 参考訳(メタデータ) (2021-12-02T03:41:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。