論文の概要: The Machine Vision Iceberg Explained: Advancing Dynamic Testing by
Considering Holistic Environmental Circumstances
- arxiv url: http://arxiv.org/abs/2401.14831v1
- Date: Fri, 26 Jan 2024 12:59:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:18:01.942946
- Title: The Machine Vision Iceberg Explained: Advancing Dynamic Testing by
Considering Holistic Environmental Circumstances
- Title(参考訳): the machine vision iceberg explains: 総合的環境条件を考慮した動的テストの進歩
- Authors: Hubert Padusinski, Thilo Braun, Christian Steinhauser, Lennart Ries,
Eric Sax
- Abstract要約: この作業は、ハイ自動化運転(HAD)システムで非常に必要とされる、マシンビジョン(MV)テストの現場に展開する。
我々は,開発プロセスにおけるMVの不透明な機能をどのように扱うか,より深く理解することの必要性を強調した。
私たちの主な貢献は階層的なレベルモデルであり、それはグラニュラリティグレードと呼ばれます。
- 参考スコア(独自算出の注目度): 0.14999444543328289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Are we heading for an iceberg with the current testing of machine vision?
This work delves into the landscape of Machine Vision (MV) testing, which is
heavily required in Highly Automated Driving (HAD) systems. Utilizing the
metaphorical notion of navigating towards an iceberg, we discuss the potential
shortcomings concealed within current testing strategies. We emphasize the
urgent need for a deeper understanding of how to deal with the opaque functions
of MV in development processes. As overlooked considerations can cost lives.
Our main contribution is the hierarchical level model, which we call
Granularity Grades. The model encourages a refined exploration of the
multi-scaled depths of understanding about the circumstances of environments in
which MV is intended to operate. This model aims to provide a holistic overview
of all entities that may impact MV functions, ranging from relations of
individual entities like object attributes to entire environmental scenes. The
application of our model delivers a structured exploration of entities in a
specific domain, their relationships and assigning results of a MV-under-test
to construct an entity-relationship graph. Through clustering patterns of
relations in the graph general MV deficits are arguable. In Summary, our work
contributes to a more nuanced and systematized identification of deficits of a
MV test object in correlation to holistic circumstances in HAD operating
domains.
- Abstract(参考訳): 現在の機械ビジョンのテストで氷山に向かっていますか?
この作業は、ハイ自動化運転(HAD)システムで非常に必要とされる、マシンビジョン(MV)テストの現場に展開する。
氷山への移動という隠語的な概念を利用して,現在のテスト戦略に隠されている潜在的な欠点について論じる。
我々は,開発プロセスにおけるmvの不透明な機能をどう扱うか,より深く理解する必要があることを強調する。
見過ごされているように、考慮は命がかかる。
私たちの大きな貢献は、粒度グレードと呼ばれる階層的レベルモデルです。
このモデルはmvが運用することを意図した環境の状況を理解するための多スケールな深さの探索を奨励する。
このモデルは、オブジェクト属性のような個々のエンティティの関係から環境シーン全体まで、mv機能に影響を与える可能性のあるすべてのエンティティの全体的概要を提供することを目的としている。
モデルの適用により、特定のドメイン内のエンティティの構造化された探索、それらの関係、MV-アンダーテストの結果の割り当てを行い、エンティティ-リレーショナルグラフを構築する。
グラフ内の関係のクラスタリングパターンを通じて、mv の一般赤字は回避可能である。
本研究は,HAD操作領域の全体的状況と相関して,MV試験対象の欠陥のよりきめ細やかで体系化された同定に寄与する。
関連論文リスト
- Probing Multimodal LLMs as World Models for Driving [72.18727651074563]
本研究は,自律運転分野におけるMLLM(Multimodal Large Language Models)の適用に焦点を当てた。
我々は、固定車載カメラの観点から、様々なMLLMの運転能力を世界モデルとして評価する。
以上の結果から,最先端MLLMの現在の能力に重要なギャップがあることが示唆された。
論文 参考訳(メタデータ) (2024-05-09T17:52:42Z) - Reason2Drive: Towards Interpretable and Chain-based Reasoning for
Autonomous Driving [40.20124828096732]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z) - InCA: Rethinking In-Car Conversational System Assessment Leveraging
Large Language Models [2.2602594453321063]
本稿では,車内対話型質問応答(ConvQA)システムに特化して設計されたデータセットについて紹介する。
予備的かつ総合的な経験的評価は,提案手法の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-11-13T17:02:06Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - Data-driven Traffic Simulation: A Comprehensive Review [26.69987598795778]
データ駆動型微視的交通シミュレーションは、自律走行テストにとって重要なツールとなっている。
本稿では、データ駆動交通シミュレーションの一般的な問題を紹介し、重要な概念と用語を概説する。
そこで本研究では,模倣学習,強化学習,深層生成,深層学習を総合的に評価する。
論文 参考訳(メタデータ) (2023-10-24T16:25:13Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Conservative Estimation of Perception Relevance of Dynamic Objects for
Safe Trajectories in Automotive Scenarios [0.0]
関連性の概念はいまだ十分に定義されておらず、特定されていない。
本稿では,ハイウェイ領域における衝突安全への模範的適用により,この課題を克服する新しい手法を提案する。
本稿では、動的対象が知覚に関連し、完全な評価のために考慮する必要がある、保守的な推定法を提案する。
論文 参考訳(メタデータ) (2023-07-20T13:43:48Z) - Evolving Testing Scenario Generation Method and Intelligence Evaluation
Framework for Automated Vehicles [12.670180834651912]
本稿では、深部強化学習(DRL)を利用して、自動車両(AV)のテストおよびインテリジェンス評価のための人間のようなBVを作成する進化シナリオ生成手法を提案する。
その結果,提案シナリオは,他のベースラインシナリオと比較して高い複雑性を示し,自然主義駆動データと85%以上類似していることがわかった。
論文 参考訳(メタデータ) (2023-06-12T14:26:12Z) - EBMs vs. CL: Exploring Self-Supervised Visual Pretraining for Visual
Question Answering [53.40635559899501]
クリーンで多様なラベル付きデータは、視覚的質問応答(VQA)のような複雑なタスクのモデルをトレーニングするための主要な障害である
我々は、ラベルのない画像を利用してモデルを事前訓練するための自己教師付き手法をレビューし、評価し、それをカスタムVQAタスクで微調整する。
EBMもCLもラベルのない画像から表現を学習でき、非常に少ない注釈付きデータでVQAモデルをトレーニングできることがわかった。
論文 参考訳(メタデータ) (2022-06-29T01:44:23Z) - Multi-modal Transformers Excel at Class-agnostic Object Detection [105.10403103027306]
既存の手法では、人間の理解可能な意味論によって支配されるトップダウンの監視信号が欠落していると論じる。
マルチスケール特徴処理と変形可能な自己アテンションを用いた効率よく柔軟なMViTアーキテクチャを開発した。
多様なアプリケーションにおけるMViT提案の重要性を示す。
論文 参考訳(メタデータ) (2021-11-22T18:59:29Z) - Scalable Evaluation of Multi-Agent Reinforcement Learning with Melting
Pot [71.28884625011987]
Melting PotはMARL評価スイートで、強化学習を使用して、新しいテストシナリオを作成するのに必要な人的労力を削減する。
幅広い研究トピックをカバーする80以上のユニークなテストシナリオを作成しました。
これらのテストシナリオを標準的なMARLトレーニングアルゴリズムに適用し、Melting Potがトレーニングのパフォーマンスだけでは明らかでない弱点をいかに明らかにするかを実証する。
論文 参考訳(メタデータ) (2021-07-14T17:22:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。