論文の概要: CaMiT: A Time-Aware Car Model Dataset for Classification and Generation
- arxiv url: http://arxiv.org/abs/2510.17626v1
- Date: Mon, 20 Oct 2025 15:11:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.495527
- Title: CaMiT: A Time-Aware Car Model Dataset for Classification and Generation
- Title(参考訳): CaMiT: 分類と生成のためのタイムアウェアカーモデルデータセット
- Authors: Frédéric LIN, Biruk Abere Ambaw, Adrian Popescu, Hejer Ammar, Romaric Audigier, Hervé Le Borgne,
- Abstract要約: 自動車モデルの時間的進化を微粒化したデータセットであるCar Models in Time (CaMiT)を紹介した。
CaMiTには190台の車モデル(2007-2023)と5.1Mの未ラベルサンプル(2005-2023)の787Kラベルのサンプルが含まれており、教師付き学習と自己教師型学習の両方をサポートしている。
- 参考スコア(独自算出の注目度): 7.326527258062973
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI systems must adapt to evolving visual environments, especially in domains where object appearances change over time. We introduce Car Models in Time (CaMiT), a fine-grained dataset capturing the temporal evolution of car models, a representative class of technological artifacts. CaMiT includes 787K labeled samples of 190 car models (2007-2023) and 5.1M unlabeled samples (2005-2023), supporting both supervised and self-supervised learning. Static pretraining on in-domain data achieves competitive performance with large-scale generalist models while being more resource-efficient, yet accuracy declines when models are tested across years. To address this, we propose a time-incremental classification setting, a realistic continual learning scenario with emerging, evolving, and disappearing classes. We evaluate two strategies: time-incremental pretraining, which updates the backbone, and time-incremental classifier learning, which updates only the final layer, both improving temporal robustness. Finally, we explore time-aware image generation that leverages temporal metadata during training, yielding more realistic outputs. CaMiT offers a rich benchmark for studying temporal adaptation in fine-grained visual recognition and generation.
- Abstract(参考訳): AIシステムは、特にオブジェクトの外観が時間とともに変化する領域において、進化する視覚環境に適応する必要がある。
本稿では,自動車モデルの時間的進化を捉える詳細なデータセットであるCar Models in Time (CaMiT)を紹介した。
CaMiTには190台のモデル(2007-2023)と5.1M台の未ラベルのサンプル(2005-2023)の787Kラベルのサンプルが含まれており、教師付き学習と自己教師型学習の両方をサポートしている。
ドメイン内データの静的事前トレーニングは、大規模ジェネラリストモデルとの競合性能を向上すると同時に、リソース効率も向上するが、モデルが数年にわたってテストされると精度が低下する。
そこで本研究では,進化・進化・消滅するクラスを伴う現実的な連続学習シナリオである時間的分類設定を提案する。
バックボーンを更新する時間増分事前学習と最終層のみを更新する時間増分分類学習の2つの戦略を評価する。
最後に、トレーニング中の時間的メタデータを活用して、よりリアルな出力を得るタイムアウェア画像生成について検討する。
CaMiTは、微粒な視覚認識と生成における時間適応を研究するためのリッチなベンチマークを提供する。
関連論文リスト
- VSFormer: Value and Shape-Aware Transformer with Prior-Enhanced Self-Attention for Multivariate Time Series Classification [47.92529531621406]
識別パターン(形状)と数値情報(値)の両方を組み込んだVSFormerを提案する。
さらに、教師付き情報から派生したクラス固有の事前情報を抽出し、位置エンコーディングを強化する。
30のUEAアーカイブデータセットに対する大規模な実験は、SOTAモデルと比較して、我々の手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-21T07:31:22Z) - ReAugment: Model Zoo-Guided RL for Few-Shot Time Series Augmentation and Forecasting [74.00765474305288]
本稿では,時系列データ拡張のための強化学習(RL)の試験的検討を行う。
我々の手法であるReAugmentは、トレーニングセットのどの部分が拡張されるべきか、どのように拡張を行うべきか、RLがプロセスにどのような利点をもたらすのか、という3つの重要な問題に取り組む。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - Localized Latent Updates for Fine-Tuning Vision-Language Models [15.285292154680246]
この作業では,データポイントに近いモデル予測のみを更新する,軽量なアダプタを提案する。
我々は、この比較的単純なアプローチの有効性とスピードを、数ショットの学習の文脈で示し、トレーニング中に見られるクラスと見えないクラスの両方の結果が、芸術の状況に匹敵するか、改善されるかのどちらかであることを示した。
論文 参考訳(メタデータ) (2022-12-13T13:15:20Z) - Quantifying Quality of Class-Conditional Generative Models in
Time-Series Domain [4.219228636765818]
Inception Time Score(ITS)とFrechet Inception Time Distance(FITD)を導入し、時系列領域におけるクラス条件生成モデルの質的性能を評価する。
提案した指標の識別能力を調べるため,80種類のデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-10-14T08:13:20Z) - Deep Semi-Supervised Learning for Time Series Classification [1.096924880299061]
画像と時系列の分類から,最先端の深層半教師付きモデルの転送可能性について検討する。
これらの変換された半教師付きモデルは、強い教師付き、半教師付き、自己監督型の選択肢よりも大きな性能向上を示す。
論文 参考訳(メタデータ) (2021-02-06T17:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。