論文の概要: CLIPping the Limits: Finding the Sweet Spot for Relevant Images in Automated Driving Systems Perception Testing
- arxiv url: http://arxiv.org/abs/2404.05309v2
- Date: Fri, 12 Jul 2024 09:10:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 04:47:43.058538
- Title: CLIPping the Limits: Finding the Sweet Spot for Relevant Images in Automated Driving Systems Perception Testing
- Title(参考訳): CLIPping the Limits: Finding the Sweet Spot for Relevant Images in Automated Driving Systems Perception Testing
- Authors: Philipp Rigoll, Laurenz Adolph, Lennart Ries, Eric Sax,
- Abstract要約: ニューラルネットワークを用いて、自然言語のプロンプトと類似性に応じてデータセット内の画像をソートする。
私たちの焦点は、偽陽性と偽陰性を平等に防止することにあります。
- 参考スコア(独自算出の注目度): 0.14999444543328289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perception systems, especially cameras, are the eyes of automated driving systems. Ensuring that they function reliably and robustly is therefore an important building block in the automation of vehicles. There are various approaches to test the perception of automated driving systems. Ultimately, however, it always comes down to the investigation of the behavior of perception systems under specific input data. Camera images are a crucial part of the input data. Image data sets are therefore collected for the testing of automated driving systems, but it is non-trivial to find specific images in these data sets. Thanks to recent developments in neural networks, there are now methods for sorting the images in a data set according to their similarity to a prompt in natural language. In order to further automate the provision of search results, we make a contribution by automating the threshold definition in these sorted results and returning only the images relevant to the prompt as a result. Our focus is on preventing false positives and false negatives equally. It is also important that our method is robust and in the case that our assumptions are not fulfilled, we provide a fallback solution.
- Abstract(参考訳): 認識システム、特にカメラは自動走行システムの目玉だ。
確実かつ堅牢に機能することを保証することは、車両の自動化において重要なビルディングブロックである。
自動走行システムの認識をテストするには様々な方法がある。
しかし、究極的には、それは常に特定の入力データの下での知覚システムの振舞いの調査に繋がる。
カメラ画像は入力データの重要な部分である。
そのため、自動走行システムのテストのために画像データセットが収集されるが、これらのデータセットに特定の画像を見つけることは容易ではない。
ニューラルネットワークの最近の進歩により、自然言語のプロンプトと類似性に応じてデータセット内の画像をソートする手法が現在存在する。
検索結果の提供をさらに自動化するために、これらのソート結果のしきい値定義を自動化し、結果としてプロンプトに関連する画像のみを返すことでコントリビューションを行う。
私たちの焦点は、偽陽性と偽陰性を平等に防止することにあります。
また,本手法が堅牢であり,仮定が満たされていない場合には,フォールバックソリューションを提供することも重要である。
関連論文リスト
- Robust Lane Detection through Self Pre-training with Masked Sequential
Autoencoders and Fine-tuning with Customized PolyLoss [0.0]
車線検出は、自動走行の基礎となる車両のローカライゼーションに不可欠である。
本稿では、エンドツーエンドニューラルネットワークモデルのための自己学習マスク付きシーケンシャルオートエンコーダと、カスタマイズされたPolyLossによる微調整のパイプラインを提案する。
実験の結果,提案したパイプラインでは,車線検出モデルの性能は最先端以上のものとなることがわかった。
論文 参考訳(メタデータ) (2023-05-26T21:36:08Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - A Feature-based Approach for the Recognition of Image Quality
Degradation in Automotive Applications [0.0]
本稿では,自動車アプリケーションにおける画像品質の劣化を検知する特徴に基づくアルゴリズムを提案する。
異なるデータセットを用いた実験により、このアルゴリズムはカメラレンズに付着した汚れを検知し、異なるタイプの画像劣化を分類できることが示された。
論文 参考訳(メタデータ) (2023-03-13T13:40:09Z) - Online LiDAR-Camera Extrinsic Parameters Self-checking [12.067216966113708]
本稿では,2進分類ネットワークを導入することにより,外部パラメータが適切に校正されているかどうかを判断する自己チェックアルゴリズムを提案する。
コードはGithubのWebサイトでhttps://github.com/OpenCalib/LiDAR2camera_self-checkで公開されている。
論文 参考訳(メタデータ) (2022-10-19T13:17:48Z) - Multimodal Detection of Unknown Objects on Roads for Autonomous Driving [4.3310896118860445]
未知の物体を検出する新しいパイプラインを提案する。
我々は,最先端の美術品検出モデルを逐次的に組み合わせることで,ライダーとカメラのデータを利用する。
論文 参考訳(メタデータ) (2022-05-03T10:58:41Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - DAWN: Vehicle Detection in Adverse Weather Nature Dataset [4.09920839425892]
本研究では,DAWNと呼ばれる各種気象条件下で収集した実世界の画像からなる新しいデータセットを提案する。
このデータセットは、実際の交通環境から1000枚の画像を集め、霧、雪、雨、砂嵐の4つの天候条件に分けられる。
このデータは,車両検知システムの性能に及ぼす悪天候の影響の解明に有効である。
論文 参考訳(メタデータ) (2020-08-12T15:48:49Z) - Deep Traffic Sign Detection and Recognition Without Target Domain Real
Images [52.079665469286496]
本稿では,ターゲットドメインからの実際の画像を必要としない新しいデータベース生成手法と,(ii)交通標識のテンプレートを提案する。
この方法は、実際のデータでトレーニングを克服することではなく、実際のデータが利用できない場合に互換性のある代替手段になることを目的としている。
大規模なデータセットでは、完全に合成されたデータセットによるトレーニングは、実際のデータセットとトレーニングのパフォーマンスにほぼ一致する。
論文 参考訳(メタデータ) (2020-07-30T21:06:47Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。