論文の概要: Image-Based Vehicle Classification by Synergizing Features from
Supervised and Self-Supervised Learning Paradigms
- arxiv url: http://arxiv.org/abs/2302.00648v1
- Date: Wed, 1 Feb 2023 18:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 16:48:41.015881
- Title: Image-Based Vehicle Classification by Synergizing Features from
Supervised and Self-Supervised Learning Paradigms
- Title(参考訳): 教師付き学習パラダイムと自己監督学習パラダイムの相乗化による画像ベース車両分類
- Authors: Shihan Ma and Jidong J. Yang
- Abstract要約: 車両画像の表現学習において,DINOとData2vecの2つの最先端自己教師型学習手法を評価し,比較した。
これらの自己教師型学習法から得られた表現は,車種分類タスクの車輪位置特徴と組み合わせた。
我々の車輪マスキング戦略と整合したデータ2vec蒸留表現は,DINOよりも優れていた。
- 参考スコア(独自算出の注目度): 0.913755431537592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel approach to leverage features learned from both
supervised and self-supervised paradigms, to improve image classification
tasks, specifically for vehicle classification. Two state-of-the-art
self-supervised learning methods, DINO and data2vec, were evaluated and
compared for their representation learning of vehicle images. The former
contrasts local and global views while the latter uses masked prediction on
multi-layered representations. In the latter case, supervised learning is
employed to finetune a pretrained YOLOR object detector for detecting vehicle
wheels, from which definitive wheel positional features are retrieved. The
representations learned from these self-supervised learning methods were
combined with the wheel positional features for the vehicle classification
task. Particularly, a random wheel masking strategy was utilized to finetune
the previously learned representations in harmony with the wheel positional
features during the training of the classifier. Our experiments show that the
data2vec-distilled representations, which are consistent with our wheel masking
strategy, outperformed the DINO counterpart, resulting in a celebrated Top-1
classification accuracy of 97.2% for classifying the 13 vehicle classes defined
by the Federal Highway Administration.
- Abstract(参考訳): 本稿では,車両分類における画像分類タスクを改善するために,教師付きパラダイムと自己監督型パラダイムの両方から学んだ特徴を活用する新しいアプローチを提案する。
車両画像の表現学習において,DINOとData2vecの2つの最先端自己教師型学習手法を評価し,比較した。
前者はローカルとグローバルのビューを対比し、後者は多層表現のマスク付き予測を使用する。
後者の場合、教師付き学習を用いて、事前訓練されたヨーラー物体検出装置を微調整し、車両の車輪位置特徴を検索する。
これらの自己教師付き学習方法から得られた表現と車両分類タスクの車輪位置特徴を組み合わせる。
特に無作為な車輪マスキング戦略を用いて,事前学習した表現を,分類器の訓練中に車輪の位置特徴と調和させて微調整した。
実験の結果,車輪マスキング戦略と整合したデータ2vec蒸留表現はDINOよりも優れており,連邦高速道路局が定義する13種類の車両の分類において,Top-1分類精度が97.2%であった。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Self-Supervised Representation Learning from Temporal Ordering of
Automated Driving Sequences [49.91741677556553]
本研究では、認識タスクのための地域レベルの特徴表現を事前学習するための時間順述前文タスクであるTempOを提案する。
我々は各フレームを、オブジェクト検出やトラッキングシステムにとって自然な表現である、未順序な特徴ベクトルのセットで埋め込む。
BDD100K、nu Images、MOT17データセットの大規模な評価は、私たちのTempO事前学習アプローチがシングルフレームの自己教師型学習方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-02-17T18:18:27Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Unsupervised Pretraining for Object Detection by Patch Reidentification [72.75287435882798]
教師なし表現学習は、オブジェクトディテクタの事前トレーニング表現で有望なパフォーマンスを実現します。
本研究では,オブジェクト検出のための簡易かつ効果的な表現学習手法であるパッチ再識別(Re-ID)を提案する。
私たちの方法は、トレーニングの反復やデータパーセンテージなど、すべての設定でCOCOの同等を大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-08T15:13:59Z) - Discovering Discriminative Geometric Features with Self-Supervised
Attention for Vehicle Re-Identification and Beyond [23.233398760777494]
まず,自己監督型注意力に基づく車両用ReIDの識別的幾何学的特徴を学習する。
3つのブランチからなるエンドツーエンドのトレーニング可能なディープネットワークアーキテクチャを実装している。
車両用ReID, ie VeRi-776, CityFlow-ReID, VehicleIDの3つのベンチマークデータセットに関する総合的な実験を行い, 最先端の性能を実証した。
論文 参考訳(メタデータ) (2020-10-19T04:43:56Z) - Vehicle Attribute Recognition by Appearance: Computer Vision Methods for
Vehicle Type, Make and Model Classification [0.9645196221785693]
粗粒度(車種)から細粒度(車種・モデル)まで,車両特性を識別するアルゴリズムを多数調査する。
本稿では,これらの課題に対する2つの代替手法について論じる。
車両属性認識のための実世界のシミュレーションシナリオを設計し,その2つの手法を実験的に比較した。
論文 参考訳(メタデータ) (2020-06-29T21:33:06Z) - Learning predictive representations in autonomous driving to improve
deep reinforcement learning [9.919972770800822]
新たな予測表現を用いた強化学習を自律運転に適用する。
新たな予測表現は、一般値関数(GVF)によって学習され、将来の車線中心性と道路角度の予測を提供する。
シミュレーションと実世界の両方の実験では、強化学習における予測表現が学習効率、制御の滑らかさ、およびエージェントが訓練中に表示されなかった道路への一般化を改善することが示されている。
論文 参考訳(メタデータ) (2020-06-26T17:17:47Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。