論文の概要: What, How, and When Should Object Detectors Update in Continually
Changing Test Domains?
- arxiv url: http://arxiv.org/abs/2312.08875v1
- Date: Tue, 12 Dec 2023 07:13:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 22:22:46.616457
- Title: What, How, and When Should Object Detectors Update in Continually
Changing Test Domains?
- Title(参考訳): 連続的なテストドメインの変更でオブジェクト検出器はいつアップデートされるべきか?
- Authors: Jayeon Yoo, Dongkwan Lee, Inseop Chung, Donghyun Kim, Nojun Kwak
- Abstract要約: テストデータを推測しながらモデルをオンラインに適応させるテスト時適応アルゴリズムが提案されている。
連続的に変化するテスト領域におけるオブジェクト検出のための新しいオンライン適応手法を提案する。
提案手法は,広く使用されているベンチマークのベースラインを超え,最大4.9%,mAP7.9%の改善を実現している。
- 参考スコア(独自算出の注目度): 34.13756022890991
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is a well-known fact that the performance of deep learning models
deteriorates when they encounter a distribution shift at test time. Test-time
adaptation (TTA) algorithms have been proposed to adapt the model online while
inferring test data. However, existing research predominantly focuses on
classification tasks through the optimization of batch normalization layers or
classification heads, but this approach limits its applicability to various
model architectures like Transformers and makes it challenging to apply to
other tasks, such as object detection. In this paper, we propose a novel online
adaption approach for object detection in continually changing test domains,
considering which part of the model to update, how to update it, and when to
perform the update. By introducing architecture-agnostic and lightweight
adaptor modules and only updating these while leaving the pre-trained backbone
unchanged, we can rapidly adapt to new test domains in an efficient way and
prevent catastrophic forgetting. Furthermore, we present a practical and
straightforward class-wise feature aligning method for object detection to
resolve domain shifts. Additionally, we enhance efficiency by determining when
the model is sufficiently adapted or when additional adaptation is needed due
to changes in the test distribution. Our approach surpasses baselines on widely
used benchmarks, achieving improvements of up to 4.9\%p and 7.9\%p in mAP for
COCO $\rightarrow$ COCO-corrupted and SHIFT, respectively, while maintaining
about 20 FPS or higher.
- Abstract(参考訳): ディープラーニングモデルの性能がテスト時に分散シフトに遭遇すると劣化するという事実はよく知られている。
テストデータを推論しながらモデルをオンラインに適応させるTTAアルゴリズムが提案されている。
しかし、既存の研究は主にバッチ正規化層や分類ヘッドの最適化による分類タスクに焦点を当てているが、このアプローチはトランスフォーマーのような様々なモデルアーキテクチャに適用性が制限され、オブジェクト検出などの他のタスクに適用することが困難になっている。
本稿では,モデルのどの部分が更新され,どのように更新され,いつ更新されるかを考慮し,連続的に変化するテスト領域におけるオブジェクト検出のための新しいオンライン適応手法を提案する。
アーキテクチャに依存しない軽量なアダプタモジュールを導入し、トレーニング済みのバックボーンを変更せずに更新するだけで、新しいテストドメインを効率的に適用し、破滅的な忘れを防止することができる。
さらに,ドメインシフトを解決するために,オブジェクト検出のための実用的で簡単な機能整合手法を提案する。
さらに,モデルが十分に適合した時期や,テスト分布の変化による追加適応が必要な時期を決定することで効率を向上させる。
提案手法は,COCO$\rightarrow$ COCO-corruptedおよびShiFTに対して最大4.9\%pおよび7.9\%pの改善を実現し,約20FPS以上を維持しながら,広く使用されているベンチマークのベースラインを超えている。
関連論文リスト
- Enhancing Test Time Adaptation with Few-shot Guidance [35.13317598777832]
深層ニューラルネットワークは、トレーニング(ソース)とテスト(ターゲット)データのドメインシフトに直面しながら、大きなパフォーマンス低下に直面することが多い。
TTA(Test Time Adaptation)法は,事前学習したソースモデルを用いて,配信外ストリーミングターゲットデータを処理する手法として提案されている。
本稿では,Few-Shot Test Time Adaptation (FS-TTA) を開発した。
論文 参考訳(メタデータ) (2024-09-02T15:50:48Z) - Test-Time Model Adaptation with Only Forward Passes [68.11784295706995]
テストタイム適応は、トレーニング済みのモデルを、潜在的に分布シフトのある未確認テストサンプルに適応させるのに有効であることが証明されている。
テスト時間フォワード最適化適応法(FOA)を提案する。
FOAは量子化された8ビットのViTで動作し、32ビットのViTで勾配ベースのTENTより優れ、ImageNet-Cで最大24倍のメモリ削減を実現する。
論文 参考訳(メタデータ) (2024-04-02T05:34:33Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - AR-TTA: A Simple Method for Real-World Continual Test-Time Adaptation [1.4530711901349282]
本稿では,自律運転のためのデータセット,すなわちCLAD-CとShiFTを用いたテスト時間適応手法の検証を提案する。
現在のテスト時間適応手法は、ドメインシフトの様々な程度を効果的に扱うのに苦労している。
モデル安定性を高めるために、小さなメモリバッファを組み込むことで、確立された自己学習フレームワークを強化する。
論文 参考訳(メタデータ) (2023-09-18T19:34:23Z) - Better Practices for Domain Adaptation [62.70267990659201]
ドメイン適応(DA)は、ラベルを使わずに、モデルを配置データに適用するためのフレームワークを提供することを目的としている。
DAの明確な検証プロトコルは、文献の悪い実践につながっている。
ドメイン適応手法の3つの分野にまたがる課題を示す。
論文 参考訳(メタデータ) (2023-09-07T17:44:18Z) - DomainAdaptor: A Novel Approach to Test-time Adaptation [33.770970763959355]
DomainAdaptorは、テスト中に未確認のドメインにトレーニング済みのCNNモデルを適用することを目的としている。
AdaMixBNは、正規化層のトレーニングとテスト統計を適応的に融合することで、ドメインシフトに対処する。
実験によると、DomainAdaptorは4つのベンチマークで最先端のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2023-08-20T15:37:01Z) - TeST: Test-time Self-Training under Distribution Shift [99.68465267994783]
Test-Time Self-Training (TeST)は、あるソースデータとテスト時の新しいデータ分散に基づいてトレーニングされたモデルを入力する技術である。
また,TeSTを用いたモデルでは,ベースラインテスト時間適応アルゴリズムよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2022-09-23T07:47:33Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。