論文の概要: The Machine Vision Iceberg Explained: Advancing Dynamic Testing by
Considering Holistic Environmental Circumstances
- arxiv url: http://arxiv.org/abs/2401.14831v2
- Date: Mon, 5 Feb 2024 11:28:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 02:40:46.610736
- Title: The Machine Vision Iceberg Explained: Advancing Dynamic Testing by
Considering Holistic Environmental Circumstances
- Title(参考訳): the machine vision iceberg explains: 総合的環境条件を考慮した動的テストの進歩
- Authors: Hubert Padusinski, Thilo Braun, Christian Steinhauser, Lennart Ries,
Eric Sax
- Abstract要約: この作業は、ハイ自動化運転(HAD)システムで非常に必要とされる、マシンビジョン(MV)テストの現場に展開する。
我々は,開発プロセスにおけるMVの不透明な機能をどのように扱うか,より深く理解することの必要性を強調した。
私たちの主な貢献は階層的なレベルモデルであり、それはグラニュラリティグレードと呼ばれます。
- 参考スコア(独自算出の注目度): 0.14999444543328289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Are we heading for an iceberg with the current testing of machine vision?
This work delves into the landscape of Machine Vision (MV) testing, which is
heavily required in Highly Automated Driving (HAD) systems. Utilizing the
metaphorical notion of navigating towards an iceberg, we discuss the potential
shortcomings concealed within current testing strategies. We emphasize the
urgent need for a deeper understanding of how to deal with the opaque functions
of MV in development processes. As overlooked considerations can cost lives.
Our main contribution is the hierarchical level model, which we call
Granularity Grades. The model encourages a refined exploration of the
multi-scaled depths of understanding about the circumstances of environments in
which MV is intended to operate. This model aims to provide a holistic overview
of all entities that may impact MV functions, ranging from relations of
individual entities like object attributes to entire environmental scenes. The
application of our model delivers a structured exploration of entities in a
specific domain, their relationships and assigning results of a MV-under-test
to construct an entity-relationship graph. Through clustering patterns of
relations in the graph general MV deficits are arguable. In Summary, our work
contributes to a more nuanced and systematized identification of deficits of a
MV test object in correlation to holistic circumstances in HAD operating
domains.
- Abstract(参考訳): 現在の機械ビジョンのテストで氷山に向かっていますか?
この作業は、ハイ自動化運転(HAD)システムで非常に必要とされる、マシンビジョン(MV)テストの現場に展開する。
氷山への移動という隠語的な概念を利用して,現在のテスト戦略に隠されている潜在的な欠点について論じる。
我々は,開発プロセスにおけるmvの不透明な機能をどう扱うか,より深く理解する必要があることを強調する。
見過ごされているように、考慮は命がかかる。
私たちの大きな貢献は、粒度グレードと呼ばれる階層的レベルモデルです。
このモデルはmvが運用することを意図した環境の状況を理解するための多スケールな深さの探索を奨励する。
このモデルは、オブジェクト属性のような個々のエンティティの関係から環境シーン全体まで、mv機能に影響を与える可能性のあるすべてのエンティティの全体的概要を提供することを目的としている。
モデルの適用により、特定のドメイン内のエンティティの構造化された探索、それらの関係、MV-アンダーテストの結果の割り当てを行い、エンティティ-リレーショナルグラフを構築する。
グラフ内の関係のクラスタリングパターンを通じて、mv の一般赤字は回避可能である。
本研究は,HAD操作領域の全体的状況と相関して,MV試験対象の欠陥のよりきめ細やかで体系化された同定に寄与する。
関連論文リスト
- Hints of Prompt: Enhancing Visual Representation for Multimodal LLMs in Autonomous Driving [65.04643267731122]
一般的なMLLMとCLIPの組み合わせは、駆動固有のシナリオを正確に表現するのに苦労することが多い。
Hints of Prompt (HoP) フレームワークを提案する。
これらのヒントはHint Fusionモジュールを通じて融合され、視覚的表現が強化され、マルチモーダル推論が強化される。
論文 参考訳(メタデータ) (2024-11-20T06:58:33Z) - AutoBench-V: Can Large Vision-Language Models Benchmark Themselves? [55.14033256706175]
視覚・言語情報の統合を促進するためには,LVLM(Large Vision-Language Models)が不可欠である。
本稿では,需要評価のための自動フレームワークであるAutoBench-Vを紹介する。
5つの要求されたユーザ入力にまたがる7つのLVLMの広範な評価を通じて、このフレームワークの有効性と信頼性を示す。
論文 参考訳(メタデータ) (2024-10-28T17:55:08Z) - Bench4Merge: A Comprehensive Benchmark for Merging in Realistic Dense Traffic with Micro-Interactive Vehicles [20.832829903505296]
我々は,統合シナリオにおける動作計画能力を評価するためのベンチマークを開発する。
我々のアプローチには、微小な行動特性を持つ大規模データセットで訓練された他の車両が含まれる。
大規模な実験は、この評価ベンチマークの高度な性質を実証した。
論文 参考訳(メタデータ) (2024-10-21T11:35:33Z) - Hard Cases Detection in Motion Prediction by Vision-Language Foundation Models [16.452638202694246]
本研究は、自動運転におけるハードケースの検出におけるビジョン・ランゲージ・ファンデーション・モデル(VLM)の可能性を探るものである。
設計したプロンプトで逐次画像フレームを供給し,課題のあるエージェントやシナリオを効果的に識別する,実現可能なパイプラインを提案する。
NuScenesデータセット上で、パイプラインを最先端の手法に組み込むことの有効性と可能性を示す。
論文 参考訳(メタデータ) (2024-05-31T16:35:41Z) - Reason2Drive: Towards Interpretable and Chain-based Reasoning for Autonomous Driving [38.28159034562901]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Conservative Estimation of Perception Relevance of Dynamic Objects for
Safe Trajectories in Automotive Scenarios [0.0]
関連性の概念はいまだ十分に定義されておらず、特定されていない。
本稿では,ハイウェイ領域における衝突安全への模範的適用により,この課題を克服する新しい手法を提案する。
本稿では、動的対象が知覚に関連し、完全な評価のために考慮する必要がある、保守的な推定法を提案する。
論文 参考訳(メタデータ) (2023-07-20T13:43:48Z) - Evolving Testing Scenario Generation Method and Intelligence Evaluation
Framework for Automated Vehicles [12.670180834651912]
本稿では、深部強化学習(DRL)を利用して、自動車両(AV)のテストおよびインテリジェンス評価のための人間のようなBVを作成する進化シナリオ生成手法を提案する。
その結果,提案シナリオは,他のベースラインシナリオと比較して高い複雑性を示し,自然主義駆動データと85%以上類似していることがわかった。
論文 参考訳(メタデータ) (2023-06-12T14:26:12Z) - EBMs vs. CL: Exploring Self-Supervised Visual Pretraining for Visual
Question Answering [53.40635559899501]
クリーンで多様なラベル付きデータは、視覚的質問応答(VQA)のような複雑なタスクのモデルをトレーニングするための主要な障害である
我々は、ラベルのない画像を利用してモデルを事前訓練するための自己教師付き手法をレビューし、評価し、それをカスタムVQAタスクで微調整する。
EBMもCLもラベルのない画像から表現を学習でき、非常に少ない注釈付きデータでVQAモデルをトレーニングできることがわかった。
論文 参考訳(メタデータ) (2022-06-29T01:44:23Z) - Multi-modal Transformers Excel at Class-agnostic Object Detection [105.10403103027306]
既存の手法では、人間の理解可能な意味論によって支配されるトップダウンの監視信号が欠落していると論じる。
マルチスケール特徴処理と変形可能な自己アテンションを用いた効率よく柔軟なMViTアーキテクチャを開発した。
多様なアプリケーションにおけるMViT提案の重要性を示す。
論文 参考訳(メタデータ) (2021-11-22T18:59:29Z) - Scalable Evaluation of Multi-Agent Reinforcement Learning with Melting
Pot [71.28884625011987]
Melting PotはMARL評価スイートで、強化学習を使用して、新しいテストシナリオを作成するのに必要な人的労力を削減する。
幅広い研究トピックをカバーする80以上のユニークなテストシナリオを作成しました。
これらのテストシナリオを標準的なMARLトレーニングアルゴリズムに適用し、Melting Potがトレーニングのパフォーマンスだけでは明らかでない弱点をいかに明らかにするかを実証する。
論文 参考訳(メタデータ) (2021-07-14T17:22:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。