論文の概要: The Machine Vision Iceberg Explained: Advancing Dynamic Testing by Considering Holistic Environmental Relations
- arxiv url: http://arxiv.org/abs/2401.14831v3
- Date: Tue, 30 Apr 2024 13:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 19:28:13.189889
- Title: The Machine Vision Iceberg Explained: Advancing Dynamic Testing by Considering Holistic Environmental Relations
- Title(参考訳): マシンビジョンアイスバーグの解説:ホロスティックな環境関係を考慮した動的テストの改善
- Authors: Hubert Padusinski, Christian Steinhauser, Thilo Braun, Lennart Ries, Eric Sax,
- Abstract要約: MV評価プロセスにおいて考慮すべきパフォーマンス要因について、より包括的な理解を求める。
これはMVコンポーネントのテストだけでなく、統合テストにも関係しています。
主な貢献は、環境関係を観察するブラックボックステストのための新しいフレームワークである。
- 参考スコア(独自算出の注目度): 0.1398098625978622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Vision (MV) is essential for solving driving automation. This paper examines potential shortcomings in current MV testing strategies for highly automated driving (HAD) systems. We argue for a more comprehensive understanding of the performance factors that must be considered during the MV evaluation process, noting that neglecting these factors can lead to significant risks. This is not only relevant to MV component testing, but also to integration testing. To illustrate this point, we draw an analogy to a ship navigating towards an iceberg to show potential hidden challenges in current MV testing strategies. The main contribution is a novel framework for black-box testing which observes environmental relations. This means it is designed to enhance MV assessments by considering the attributes and surroundings of relevant individual objects. The framework provides the identification of seven general concerns about the object recognition of MV, which are not addressed adequately in established test processes. To detect these deficits based on their performance factors, we propose the use of a taxonomy called "granularity orders" along with a graphical representation. This allows an identification of MV uncertainties across a range of driving scenarios. This approach aims to advance the precision, efficiency, and completeness of testing procedures for MV.
- Abstract(参考訳): 機械ビジョン(MV)は、運転自動化の解決に不可欠である。
本稿では,自動走行(HAD)システムにおける現在のMVテスト戦略の潜在的な問題点について検討する。
MV評価プロセスにおいて考慮すべきパフォーマンス要因について、より包括的な理解を求める一方で、これらの要因を無視することは重大なリスクをもたらす可能性があると指摘する。
これはMVコンポーネントのテストだけでなく、統合テストにも関係しています。
この点を説明するために、我々は氷山に向かって航行する船を例証し、現在のMVテスト戦略における潜在的な隠れた課題を示す。
主な貢献は、環境関係を観察するブラックボックステストのための新しいフレームワークである。
これは、関連する個々のオブジェクトの属性や周囲を考慮し、MVアセスメントを強化するように設計されている。
このフレームワークは、確立されたテストプロセスにおいて適切に対処されていないMVのオブジェクト認識に関する7つの一般的な懸念を識別する。
それらの性能要因に基づいてこれらの欠陥を検出するため,グラフィカルな表現とともに「粒度順序」と呼ばれる分類法を提案する。
これにより、様々な運転シナリオにおけるMVの不確実性を特定することができる。
本研究の目的は,MV試験の精度,効率,完全性を向上させることである。
関連論文リスト
- Hard Cases Detection in Motion Prediction by Vision-Language Foundation Models [16.452638202694246]
本研究は、自動運転におけるハードケースの検出におけるビジョン・ランゲージ・ファンデーション・モデル(VLM)の可能性を探るものである。
設計したプロンプトで逐次画像フレームを供給し,課題のあるエージェントやシナリオを効果的に識別する,実現可能なパイプラインを提案する。
NuScenesデータセット上で、パイプラインを最先端の手法に組み込むことの有効性と可能性を示す。
論文 参考訳(メタデータ) (2024-05-31T16:35:41Z) - Probing Multimodal LLMs as World Models for Driving [72.18727651074563]
本研究は,自律運転分野におけるMLLM(Multimodal Large Language Models)の適用に焦点を当てた。
我々は、固定車載カメラの観点から、様々なMLLMの運転能力を世界モデルとして評価する。
以上の結果から,最先端MLLMの現在の能力に重要なギャップがあることが示唆された。
論文 参考訳(メタデータ) (2024-05-09T17:52:42Z) - Reason2Drive: Towards Interpretable and Chain-based Reasoning for Autonomous Driving [38.28159034562901]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z) - InCA: Rethinking In-Car Conversational System Assessment Leveraging
Large Language Models [2.2602594453321063]
本稿では,車内対話型質問応答(ConvQA)システムに特化して設計されたデータセットについて紹介する。
予備的かつ総合的な経験的評価は,提案手法の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-11-13T17:02:06Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Conservative Estimation of Perception Relevance of Dynamic Objects for
Safe Trajectories in Automotive Scenarios [0.0]
関連性の概念はいまだ十分に定義されておらず、特定されていない。
本稿では,ハイウェイ領域における衝突安全への模範的適用により,この課題を克服する新しい手法を提案する。
本稿では、動的対象が知覚に関連し、完全な評価のために考慮する必要がある、保守的な推定法を提案する。
論文 参考訳(メタデータ) (2023-07-20T13:43:48Z) - Evolving Testing Scenario Generation Method and Intelligence Evaluation
Framework for Automated Vehicles [12.670180834651912]
本稿では、深部強化学習(DRL)を利用して、自動車両(AV)のテストおよびインテリジェンス評価のための人間のようなBVを作成する進化シナリオ生成手法を提案する。
その結果,提案シナリオは,他のベースラインシナリオと比較して高い複雑性を示し,自然主義駆動データと85%以上類似していることがわかった。
論文 参考訳(メタデータ) (2023-06-12T14:26:12Z) - EBMs vs. CL: Exploring Self-Supervised Visual Pretraining for Visual
Question Answering [53.40635559899501]
クリーンで多様なラベル付きデータは、視覚的質問応答(VQA)のような複雑なタスクのモデルをトレーニングするための主要な障害である
我々は、ラベルのない画像を利用してモデルを事前訓練するための自己教師付き手法をレビューし、評価し、それをカスタムVQAタスクで微調整する。
EBMもCLもラベルのない画像から表現を学習でき、非常に少ない注釈付きデータでVQAモデルをトレーニングできることがわかった。
論文 参考訳(メタデータ) (2022-06-29T01:44:23Z) - Multi-modal Transformers Excel at Class-agnostic Object Detection [105.10403103027306]
既存の手法では、人間の理解可能な意味論によって支配されるトップダウンの監視信号が欠落していると論じる。
マルチスケール特徴処理と変形可能な自己アテンションを用いた効率よく柔軟なMViTアーキテクチャを開発した。
多様なアプリケーションにおけるMViT提案の重要性を示す。
論文 参考訳(メタデータ) (2021-11-22T18:59:29Z) - Scalable Evaluation of Multi-Agent Reinforcement Learning with Melting
Pot [71.28884625011987]
Melting PotはMARL評価スイートで、強化学習を使用して、新しいテストシナリオを作成するのに必要な人的労力を削減する。
幅広い研究トピックをカバーする80以上のユニークなテストシナリオを作成しました。
これらのテストシナリオを標準的なMARLトレーニングアルゴリズムに適用し、Melting Potがトレーニングのパフォーマンスだけでは明らかでない弱点をいかに明らかにするかを実証する。
論文 参考訳(メタデータ) (2021-07-14T17:22:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。