論文の概要: Navigating the Edge with the State-of-the-Art Insights into Corner Case Identification and Generation for Enhanced Autonomous Vehicle Safety
- arxiv url: http://arxiv.org/abs/2503.00077v1
- Date: Thu, 27 Feb 2025 22:47:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:25:34.168752
- Title: Navigating the Edge with the State-of-the-Art Insights into Corner Case Identification and Generation for Enhanced Autonomous Vehicle Safety
- Title(参考訳): 自動運転車の安全性向上のためのコーナーケースの同定と生成への最先端の展望
- Authors: Gabriel Kenji Godoy Shimanuki, Alexandre Moreira Nascimento, Lucio Flavio Vismari, Joao Batista Camargo Junior, Jorge Rady de Almeida Junior, Paulo Sergio Cugnasca,
- Abstract要約: 仮想シミュレーションで合成データを利用するいくつかの手法が提案されている。
最も高いリスクデータであるコーナーケース(CC)は、AV制御の開発とテストにおいて最も価値のあるものである。
- 参考スコア(独自算出の注目度): 38.07210302881341
- License:
- Abstract: In recent years, there has been significant development of autonomous vehicle (AV) technologies. However, despite the notable achievements of some industry players, a strong and appealing body of evidence that demonstrate AVs are actually safe is lacky, which could foster public distrust in this technology and further compromise the entire development of this industry, as well as related social impacts. To improve the safety of AVs, several techniques are proposed that use synthetic data in virtual simulation. In particular, the highest risk data, known as corner cases (CCs), are the most valuable for developing and testing AV controls, as they can expose and improve the weaknesses of these autonomous systems. In this context, the present paper presents a systematic literature review aiming to comprehensively analyze methodologies for CC identifi cation and generation, also pointing out current gaps and further implications of synthetic data for AV safety and reliability. Based on a selection criteria, 110 studies were picked from an initial sample of 1673 papers. These selected paper were mapped into multiple categories to answer eight inter-linked research questions. It concludes with the recommendation of a more integrated approach focused on safe development among all stakeholders, with active collaboration between industry, academia and regulatory bodies.
- Abstract(参考訳): 近年,自律走行車(AV)技術が盛んに開発されている。
しかし、一部の業界関係者の顕著な業績にもかかわらず、AVが実際に安全であることを示す強力な、魅力的な証拠組織は欠如しており、この技術に対する大衆の不信を高め、業界全体の発展と関連する社会的影響を更に損なう可能性がある。
AVの安全性を向上させるために,仮想シミュレーションで合成データを利用するいくつかの手法が提案されている。
特に、最も高いリスクデータであるコーナーケース(CCs)は、これらの自律システムの弱点を公開および改善するため、AVコントロールの開発とテストに最も価値がある。
本稿では,CCのアイデンティティ・カチオンとジェネレーションの方法論を包括的に分析することを目的とした,系統的な文献レビューを行い,現状のギャップと,AVの安全性と信頼性に関する合成データの影響を指摘する。
選択基準に基づき、1673枚の論文の最初のサンプルから110個の研究が選択された。
これらの選択した論文は,8つの相互関連研究課題に答えるために,複数のカテゴリに分類された。
業界、学界、規制機関の活発な協力により、すべての利害関係者の安全開発に焦点を当てたより統合されたアプローチを推奨する。
関連論文リスト
- Safeguarding connected autonomous vehicle communication: Protocols, intra- and inter-vehicular attacks and defenses [30.18378702161015]
本稿では,既存のセキュリティフレームワークとプロトコルを詳細に分析することによって貢献する。
本稿では,CAV通信のセキュリティ向上のためのベストプラクティスを提案する。
主な貢献は、CAVセキュリティ脅威の新しい分類システムの開発である。
論文 参考訳(メタデータ) (2025-02-06T16:43:23Z) - Safety at Scale: A Comprehensive Survey of Large Model Safety [299.801463557549]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - Towards Developing Socially Compliant Automated Vehicles: State of the Art, Experts Expectations, and A Conceptual Framework [8.077621888442337]
本研究は,SCAVの開発における技術の現状を評価するための総合的なスコーピングのレビューを初めて行った。
SCAVに対する重要な研究ギャップと期待を明らかにするため、専門家インタビューも行われた。
SCAVの開発のための概念的枠組みが提案されている。
論文 参考訳(メタデータ) (2025-01-10T16:39:01Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - On STPA for Distributed Development of Safe Autonomous Driving: An Interview Study [0.7851536646859475]
System-Theoretic Process Analysis (STPA)は、防衛や航空宇宙といった安全関連分野に適用される新しい手法である。
STPAは、分散システム開発とマルチアトラクション設計レベルを備えた自動車システム工学において、完全には有効でない前提条件を前提としている。
これは継続的開発とデプロイメントにおける保守性の問題と見なすことができる。
論文 参考訳(メタデータ) (2024-03-14T15:56:02Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Tackling Cyberattacks through AI-based Reactive Systems: A Holistic Review and Future Vision [0.10923877073891446]
本稿では,AIによる脅威応答システムの最近の進歩を包括的に調査する。
AI反応ドメインに関する最新の調査は2017年に実施された。
合計で7つの研究課題が特定され、潜在的なギャップを指摘し、開発分野の可能性を示唆している。
論文 参考訳(メタデータ) (2023-12-11T09:17:01Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety of autonomous vehicles: A survey on Model-based vs. AI-based
approaches [1.370633147306388]
AVの全体制御アーキテクチャを定義するための関連手法と概念について検討する。
このレビュープロセスを通じて、モデルベースの方法とAIベースのアプローチのいずれかを使用する研究を強調することを意図している。
本稿では,安全性検証技術と安全フレームワークの標準化・一般化という,AVの安全性を保証するための手法について論じる。
論文 参考訳(メタデータ) (2023-05-29T08:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。