論文の概要: RE for AI in Practice: Managing Data Annotation Requirements for AI Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2511.15859v1
- Date: Wed, 19 Nov 2025 20:27:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.369665
- Title: RE for AI in Practice: Managing Data Annotation Requirements for AI Autonomous Driving Systems
- Title(参考訳): 実践上のRE: AI自律運転システムのためのデータアノテーション要件の管理
- Authors: Hina Saeeda, Mazen Mohamad, Eric Knauss, Jennifer Horkoff, Ali Nouri,
- Abstract要約: 高品質なデータアノテーション要件は、安全で信頼性の高いAI対応システムの開発に不可欠である。
本研究は,アノテーションの要件が定義され,実際にどのように使用されるかを検討する。
主な課題は、曖昧さ、エッジケースの複雑さ、要求の進化、矛盾、リソースの制約である。
- 参考スコア(独自算出の注目度): 3.9255502531644204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-quality data annotation requirements are crucial for the development of safe and reliable AI-enabled perception systems (AIePS) in autonomous driving. Although these requirements play a vital role in reducing bias and enhancing performance, their formulation and management remain underexplored, leading to inconsistencies, safety risks, and regulatory concerns. Our study investigates how annotation requirements are defined and used in practice, the challenges in ensuring their quality, practitioner-recommended improvements, and their impact on AIePS development and performance. We conducted $19$ semi-structured interviews with participants from six international companies and four research organisations. Our thematic analysis reveals five main key challenges: ambiguity, edge case complexity, evolving requirements, inconsistencies, and resource constraints and three main categories of best practices, including ensuring compliance with ethical standards, improving data annotation requirements guidelines, and embedded quality assurance for data annotation requirements. We also uncover critical interrelationships between annotation requirements, annotation practices, annotated data quality, and AIePS performance and development, showing how requirement flaws propagate through the AIePS development pipeline. To the best of our knowledge, this study is the first to offer empirically grounded guidance on improving annotation requirements, offering actionable insights to enhance annotation quality, regulatory compliance, and system reliability. It also contributes to the emerging fields of Software Engineering (SE for AI) and Requirements Engineering (RE for AI) by bridging the gap between RE and AI in a timely and much-needed manner.
- Abstract(参考訳): 高品質なデータアノテーション要件は、自律運転における安全で信頼性の高いAI対応認識システム(AIePS)の開発に不可欠である。
これらの要件はバイアスを減らし、性能を向上させる上で重要な役割を担っているが、その定式化と管理は未定のままであり、不整合、安全リスク、規制上の懸念につながっている。
本研究は,アノテーションの要件の定義と利用,品質確保への課題,実践者が推奨する改善,AIePS開発とパフォーマンスへの影響について検討する。
我々は6つの国際企業と4つの研究機関の参加者を対象に、19ドルの半構造化インタビューを行った。
曖昧さ、エッジケースの複雑さ、要求の進化、不整合、リソースの制約、そして倫理基準の遵守の確保、データアノテーション要件のガイドラインの改善、データアノテーション要件の組み込み品質保証を含む3つの主要なベストプラクティスのカテゴリです。
また、アノテーション要件、アノテーションプラクティス、注釈付きデータ品質、AIePSのパフォーマンスと開発の間に重要な相互関係を明らかにし、要求欠陥がAIePS開発パイプラインを通じてどのように伝播するかを示しました。
我々の知識を最大限に活用するために,本研究では,アノテーション品質,規制コンプライアンス,システムの信頼性を高めるための実用的な洞察を提供するとともに,アノテーション要件を改善するための実証的な基礎的なガイダンスを初めて提供する。
また、REとAIのギャップをタイムリーかつ待望の方法で埋めることによって、ソフトウェアエンジニアリング(SE for AI)と要件エンジニアリング(RE for AI)の新興分野にも貢献します。
関連論文リスト
- Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Explainability as a Compliance Requirement: What Regulated Industries Need from AI Tools for Design Artifact Generation [0.7874708385247352]
本稿では,AIによるデザインアーティファクト生成における説明可能性のギャップについて,安全クリティカル産業の実践者10人との半構造化インタビューを通して検討する。
我々の研究結果によると、説明不能なAI出力は、広範囲な手作業による検証、ステークホルダ信頼の低減、ドメイン固有の用語を扱うのに苦労、チームコラボレーションの破壊、規制コンプライアンスのリスクの導入を必要としている。
この研究は、要件エンジニアリングにおけるAIツールの透明性、信頼性、適用性を改善するための実践的なロードマップを概説する。
論文 参考訳(メタデータ) (2025-07-12T09:34:39Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Work in Progress: AI-Powered Engineering-Bridging Theory and Practice [0.0]
本稿では,システム工学の重要なステップを自動化し,改善する上で,生成AIがいかに役立つかを考察する。
INCOSEの"よい要件"基準に基づいて、システム要件を分析するAIの能力を調べる。
この研究は、エンジニアリングプロセスを合理化し、学習結果を改善するAIの可能性を評価することを目的としている。
論文 参考訳(メタデータ) (2025-02-06T17:42:00Z) - Bridging the Communication Gap: Evaluating AI Labeling Practices for Trustworthy AI Development [41.64451715899638]
EUエネルギラベルのようなフレームワークにインスパイアされたハイレベルなAIラベルは、AIモデルの特性をより透明にするために提案されている。
本研究は,4つの重要な研究課題に沿った質的なインタビューを通じて,AIラベリングを評価する。
論文 参考訳(メタデータ) (2025-01-21T06:00:14Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Towards Implementing Responsible AI [22.514717870367623]
我々は,AIシステムの設計と開発において,ソフトウェア工学で使用されるプロセスに適応する4つの側面を提案する。
健全な発見は、AIシステム設計と開発、ソフトウェアエンジニアリングで使用されるプロセスの適応の4つの側面をカバーしている。
論文 参考訳(メタデータ) (2022-05-09T14:59:23Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。