論文の概要: Multi-View Camera System for Variant-Aware Autonomous Vehicle Inspection and Defect Detection
- arxiv url: http://arxiv.org/abs/2509.26454v1
- Date: Tue, 30 Sep 2025 16:08:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.194881
- Title: Multi-View Camera System for Variant-Aware Autonomous Vehicle Inspection and Defect Detection
- Title(参考訳): 自律走行車検査・欠陥検出のための多視点カメラシステム
- Authors: Yash Kulkarni, Raman Jha, Renu Kachhoria,
- Abstract要約: textbf Automated Vehicle Inspection (AVI) プラットフォームを提案する。
ディープラーニング検出器とセマンティックルールエンジンを結合して、Emphvariant-awareの品質管理をリアルタイムで提供する。
我々の知る限り、これはデプロイ可能な自動車環境において、マルチカメラ機能検証と欠陥検出を統一する最初の公開システムである。
- 参考スコア(独自算出の注目度): 1.4719924357068723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring that every vehicle leaving a modern production line is built to the correct \emph{variant} specification and is free from visible defects is an increasingly complex challenge. We present the \textbf{Automated Vehicle Inspection (AVI)} platform, an end-to-end, \emph{multi-view} perception system that couples deep-learning detectors with a semantic rule engine to deliver \emph{variant-aware} quality control in real time. Eleven synchronized cameras capture a full 360{\deg} sweep of each vehicle; task-specific views are then routed to specialised modules: YOLOv8 for part detection, EfficientNet for ICE/EV classification, Gemini-1.5 Flash for mascot OCR, and YOLOv8-Seg for scratch-and-dent segmentation. A view-aware fusion layer standardises evidence, while a VIN-conditioned rule engine compares detected features against the expected manifest, producing an interpretable pass/fail report in \(\approx\! 300\,\text{ms}\). On a mixed data set of Original Equipment Manufacturer(OEM) vehicle data sets of four distinct models plus public scratch/dent images, AVI achieves \textbf{ 93 \%} verification accuracy, \textbf{86 \%} defect-detection recall, and sustains \(\mathbf{3.3}\) vehicles/min, surpassing single-view or no segmentation baselines by large margins. To our knowledge, this is the first publicly reported system that unifies multi-camera feature validation with defect detection in a deployable automotive setting in industry.
- Abstract(参考訳): 現代の生産ラインを離れるすべての車両が正しい 'emph{variant} 仕様に基づいて構築されており、目に見える欠陥がないことは、ますます複雑な問題である。
本稿では, ディープラーニング検出器とセマンティックルールエンジンを結合して, リアルタイムにemph{variant-aware}品質制御を実現する, エンド・ツー・エンドの認識システムである \textbf{automated Vehicle Inspection (AVI) プラットフォームを提案する。
11台の同期カメラが各車の全360{\degを捉え、タスク固有のビューは、部分検出のためのYOLOv8、ICE/EV分類のためのEfficientNet、マスコットOCRのためのGemini-1.5 Flash、スクラッチ&デントセグのためのYOLOv8-Segといった特殊なモジュールにルーティングされる。
ビュー対応の融合層がエビデンスを標準化し、VIN条件のルールエンジンが検出された特徴と期待されたマニフェストを比較して、(\approx\!)で解釈可能なパス/フェイルレポートを生成する。
300,\text{ms}\)。
4つの異なるモデルとパブリックスクラッチ/デント画像からなるOEM車両データセットの混合データセット上で、AVI は \textbf{ 93 \%} の精度、 \textbf{86 \%} の欠陥検出リコール、および \(\mathbf{3.3}\) の車両/min の維持を達成し、単一のビューを超えるか、大きなマージンによるセグメンテーションベースラインが存在しない。
我々の知る限り、これは業界における展開可能な自動車環境において、マルチカメラ機能検証と欠陥検出を統合化する最初の公開システムである。
関連論文リスト
- Driver-Net: Multi-Camera Fusion for Assessing Driver Take-Over Readiness in Automated Vehicles [5.543220407902113]
Driver-Netは、マルチカメラ入力を融合してドライバの乗っ取り準備を見積もる、新しいディープラーニングフレームワークである。
ドライバーの頭、手、身体の姿勢と同期した視覚的手がかりをトリプルカメラで撮影する。
提案手法は,運転準備度分類において最大95.8%の精度を実現する。
論文 参考訳(メタデータ) (2025-07-05T19:27:03Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Multi-query Vehicle Re-identification: Viewpoint-conditioned Network,
Unified Dataset and New Metric [30.344288906037345]
マルチクエリー車両Re-IDと呼ばれる,より現実的でアクセスしやすいタスクを提案する。
我々は、異なる車両視点からの補完情報を適応的に組み合わせた、新しい視点条件付きネットワーク(VCNet)を設計する。
次に、実生活の交通監視システムから6142台のカメラで撮影された、統一されたベンチマークデータセットを作成します。
第3に,クロスシーン認識能力を測定する平均クロスシーン精度(mCSP)と呼ばれる新しい評価指標を設計する。
論文 参考訳(メタデータ) (2023-05-25T06:22:03Z) - Identification of Driver Phone Usage Violations via State-of-the-Art
Object Detection with Tracking [8.147652597876862]
道路沿いのカメラで人間の介入を必要とせずに運転者用電話機の使用状況を把握できる、カスタムトレーニングされた最先端物体検出器を提案する。
提案手法はウインドスクリーンのグラアに起因する問題にも対処し、これを改善するために必要なステップを紹介している。
論文 参考訳(メタデータ) (2021-09-05T16:37:03Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。