論文の概要: Identification of Fine-grained Systematic Errors via Controlled Scene Generation
- arxiv url: http://arxiv.org/abs/2404.07045v1
- Date: Wed, 10 Apr 2024 14:35:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 14:21:12.216953
- Title: Identification of Fine-grained Systematic Errors via Controlled Scene Generation
- Title(参考訳): 制御シーン生成による微粒な体系誤差の同定
- Authors: Valentyn Boreiko, Matthias Hein, Jan Hendrik Metzen,
- Abstract要約: 微粒化制御によるリアルな合成シーンを生成するパイプラインを提案する。
我々のアプローチであるBEV2EGOは、道路コンテンツ制御によるシーン全体の現実的な生成を可能にする。
さらに,BEV2EGOの最適生成出力モデルを選択するために,制御シーン生成のためのベンチマークを提案する。
- 参考スコア(独自算出の注目度): 41.398080398462994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many safety-critical applications, especially in autonomous driving, require reliable object detectors. They can be very effectively assisted by a method to search for and identify potential failures and systematic errors before these detectors are deployed. Systematic errors are characterized by combinations of attributes such as object location, scale, orientation, and color, as well as the composition of their respective backgrounds. To identify them, one must rely on something other than real images from a test set because they do not account for very rare but possible combinations of attributes. To overcome this limitation, we propose a pipeline for generating realistic synthetic scenes with fine-grained control, allowing the creation of complex scenes with multiple objects. Our approach, BEV2EGO, allows for a realistic generation of the complete scene with road-contingent control that maps 2D bird's-eye view (BEV) scene configurations to a first-person view (EGO). In addition, we propose a benchmark for controlled scene generation to select the most appropriate generative outpainting model for BEV2EGO. We further use it to perform a systematic analysis of multiple state-of-the-art object detection models and discover differences between them.
- Abstract(参考訳): 多くの安全クリティカルな応用、特に自律運転では、信頼性の高い物体検出器を必要とする。
これらの検出装置が配備される前に、潜在的な失敗や系統的なエラーを探索し、特定する手法によって、非常に効果的に支援することができる。
体系的なエラーは、対象の位置、スケール、向き、色などの属性の組み合わせと、それぞれの背景の合成によって特徴づけられる。
それらを特定するには、非常に稀だが可能な属性の組み合わせを考慮しないため、テストセットから実際のイメージ以外のものに頼る必要がある。
この制限を克服するために,複数のオブジェクトからなる複雑なシーンを生成可能な,きめ細かい制御によるリアルな合成シーンを生成するパイプラインを提案する。
われわれのアプローチであるBEV2EGOは,2次元鳥眼ビュー(BEV)のシーン構成を1対1のビュー(EGO)にマッピングする道路コンテンツ制御によるシーン全体の現実的な生成を可能にする。
さらに,BEV2EGOの最適生成出力モデルを選択するために,制御シーン生成のためのベンチマークを提案する。
さらに、複数の最先端オブジェクト検出モデルの体系的解析を行い、それらの違いを発見する。
関連論文リスト
- Run-time Introspection of 2D Object Detection in Automated Driving
Systems Using Learning Representations [13.529124221397822]
ディープニューラルネットワーク(DNN)に基づく2次元物体検出のための新しいイントロスペクションソリューションを提案する。
KITTIとBDDのデータセットで評価された1段階および2段階のオブジェクト検出器を用いて,2次元オブジェクト検出におけるエラー検出のためのSOTAイントロスペクション機構を実装した。
性能評価の結果,提案手法はSOTA法より優れており,BDDデータセットのエラー率を9%から17%まで絶対的に削減できることがわかった。
論文 参考訳(メタデータ) (2024-03-02T10:56:14Z) - Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Towards Generalizable Multi-Camera 3D Object Detection via Perspective
Debiasing [28.874014617259935]
マルチカメラ3Dオブジェクト検出(MC3D-Det)は,鳥眼ビュー(BEV)の出現によって注目されている。
本研究では,3次元検出と2次元カメラ平面との整合性を両立させ,一貫した高精度な検出を実現する手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T15:31:28Z) - Identifying Systematic Errors in Object Detectors with the SCROD
Pipeline [46.52729366461028]
オブジェクト検出器における系統的エラーの識別と除去は、安全クリティカルなアプリケーションへの展開の前提条件となる。
粒度制御による合成画像の生成により,この制限を克服する。
両手法の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-23T22:41:08Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - CrowdSim2: an Open Synthetic Benchmark for Object Detectors [0.7223361655030193]
本稿では,人や車両検出に適した画像の合成コレクションであるCrowdSim2を公開・公開する。
それは、現実世界に似た様々な合成シナリオから集められた何千もの画像で構成されており、興味のある要素は様々である。
我々は、この新しいベンチマークを最先端の検出器のテストグラウンドとして利用し、シミュレートされたシナリオが、制御された環境でのパフォーマンスを測定する貴重なツールであることを示した。
論文 参考訳(メタデータ) (2023-04-11T09:35:57Z) - Reference-based Defect Detection Network [57.89399576743665]
最初の問題はテクスチャシフトであり、これはトレーニングされた欠陥検出モデルが目に見えないテクスチャの影響を受けやすいことを意味する。
第2の問題は部分的な視覚的混乱であり、部分的な欠陥ボックスが完全なボックスと視覚的に類似していることを示している。
本稿では,これら2つの問題に対処する参照型欠陥検出ネットワーク(RDDN)を提案する。
論文 参考訳(メタデータ) (2021-08-10T05:44:23Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - SceneChecker: Boosting Scenario Verification using Symmetry Abstractions [3.8995911009078816]
SceneCheckerは、大きな散らかったワークスペースで複雑な計画を実行する車両のシナリオを検証するツールである。
SceneCheckerは、これらのツールを到達性サブルーチンとして使用しても、検証時間の20倍のスピードアップを示している。
論文 参考訳(メタデータ) (2020-11-21T03:18:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。