論文の概要: The DevSafeOps Dilemma: A Systematic Literature Review on Rapidity in Safe Autonomous Driving Development and Operation
- arxiv url: http://arxiv.org/abs/2506.21693v1
- Date: Thu, 26 Jun 2025 18:24:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:22.970271
- Title: The DevSafeOps Dilemma: A Systematic Literature Review on Rapidity in Safe Autonomous Driving Development and Operation
- Title(参考訳): DevSafeOps Dilemma: 安全な自動運転開発と運用の迅速性に関する体系的な文献レビュー
- Authors: Ali Nouri, Beatriz Cabrero-Daniel, Fredrik Törner, Christian Berger,
- Abstract要約: 我々は、自律運転開発におけるDevOpsの使用に関する幅広い既存の文献を特定し、分析し、合成することを目的とした、体系的な文献レビューを示す。
私たちの結果は、安全に関するAI対応機能にDevOpsを適用することから生じる、課題とソリューションの構造化された概要を提供します。
- 参考スコア(独自算出の注目度): 0.7187233843678138
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Developing autonomous driving (AD) systems is challenging due to the complexity of the systems and the need to assure their safe and reliable operation. The widely adopted approach of DevOps seems promising to support the continuous technological progress in AI and the demand for fast reaction to incidents, which necessitate continuous development, deployment, and monitoring. We present a systematic literature review meant to identify, analyse, and synthesise a broad range of existing literature related to usage of DevOps in autonomous driving development. Our results provide a structured overview of challenges and solutions, arising from applying DevOps to safety-related AI-enabled functions. Our results indicate that there are still several open topics to be addressed to enable safe DevOps for the development of safe AD.
- Abstract(参考訳): 自律運転(AD)システムの開発は、システムの複雑さと、安全で信頼性の高い運用を保証する必要性のため、困難である。
広く採用されているDevOpsのアプローチは、AIの継続的技術的進歩と、継続的開発、デプロイメント、監視を必要とするインシデントに対する迅速な反応の需要をサポートすることを約束しているようだ。
我々は、自律運転開発におけるDevOpsの使用に関する幅広い既存の文献を特定し、分析し、合成することを目的とした、体系的な文献レビューを示す。
私たちの結果は、安全に関するAI対応機能にDevOpsを適用することから生じる、課題とソリューションの構造化された概要を提供します。
私たちの結果は、安全なADの開発に安全なDevOpsを可能にするために、解決すべきオープンなトピックがまだいくつか存在することを示唆しています。
関連論文リスト
- Comparative Analysis of AI-Driven Security Approaches in DevSecOps: Challenges, Solutions, and Future Directions [0.0]
本研究では,DevSecOpsにおけるAI駆動型セキュリティソリューションの分析と比較を行う。
この発見は、経験的検証、スケーラビリティ、セキュリティ自動化におけるAIの統合のギャップを明らかにしている。
この研究は、DevSecOpsでAIベースのセキュリティフレームワークを最適化するための今後の方向性を提案する。
論文 参考訳(メタデータ) (2025-04-27T08:18:11Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - Continuous risk assessment in secure DevOps [0.24475591916185502]
私たちは、組織内のリスク関連アクティビティとの関わりから、セキュアなDevOpsが利益を得られるかについて論じています。
我々は、リスクアセスメント(RA)、特に脅威モデリング(TM)を組み合わせることに集中し、ソフトウェアライフサイクルの早期にセキュリティ上の配慮を適用します。
論文 参考訳(メタデータ) (2024-09-05T10:42:27Z) - AI for DevSecOps: A Landscape and Future Opportunities [6.513361705307775]
DevSecOpsは、最も急速に進化するソフトウェア開発パラダイムの1つだ。
ソフトウェアシステムのセキュリティに関する懸念が高まっているため、DevSecOpsパラダイムが注目されている。
DevOpsワークフローにセキュリティを統合することは、アジリティに影響を与え、デリバリ速度を妨げます。
論文 参考訳(メタデータ) (2024-04-07T07:24:58Z) - On STPA for Distributed Development of Safe Autonomous Driving: An Interview Study [0.7851536646859475]
System-Theoretic Process Analysis (STPA)は、防衛や航空宇宙といった安全関連分野に適用される新しい手法である。
STPAは、分散システム開発とマルチアトラクション設計レベルを備えた自動車システム工学において、完全には有効でない前提条件を前提としている。
これは継続的開発とデプロイメントにおける保守性の問題と見なすことができる。
論文 参考訳(メタデータ) (2024-03-14T15:56:02Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。