論文の概要: VCL Challenges 2023 at ICCV 2023 Technical Report: Bi-level Adaptation
Method for Test-time Adaptive Object Detection
- arxiv url: http://arxiv.org/abs/2310.08986v1
- Date: Fri, 13 Oct 2023 10:06:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 13:32:48.283694
- Title: VCL Challenges 2023 at ICCV 2023 Technical Report: Bi-level Adaptation
Method for Test-time Adaptive Object Detection
- Title(参考訳): ICCV 2023テクニカルレポートVCL Challenges 2023: Bi-level Adaptation Method for Test-time Adaptive Object Detection
- Authors: Chenyu Lin, Yusheng He, Zhengqing Zang, Chenwei Tang, Tao Wang,
Jiancheng Lv
- Abstract要約: このレポートでは、チームのチャレンジB連続テスト_time Adaptationへの参加について概説する。
第一の焦点は、バイレベル適応を用いたテスト時間適応であり、Image_level と Detector_level の適応を含む。
最終的に、これらのバイレベル適応を利用することで、テストセット内のターゲットドメインで38.3%のmAPを達成した。
挑戦B。
- 参考スコア(独自算出の注目度): 14.114893136921706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report outlines our team's participation in VCL Challenges B Continual
Test_time Adaptation, focusing on the technical details of our approach. Our
primary focus is Testtime Adaptation using bi_level adaptations, encompassing
image_level and detector_level adaptations. At the image level, we employ
adjustable parameterbased image filters, while at the detector level, we
leverage adjustable parameterbased mean teacher modules. Ultimately, through
the utilization of these bi_level adaptations, we have achieved a remarkable
38.3% mAP on the target domain of the test set within VCL Challenges B. It is
worth noting that the minimal drop in mAP, is mearly 4.2%, and the overall
performance is 32.5% mAP.
- Abstract(参考訳): 本報告では,このアプローチの技術的詳細に注目したvclチャレンジb continual test_time adaptationへのチーム参加について概説する。
第一の焦点は、バイレベル適応を用いたテスト時間適応であり、画像レベルと検出器レベル適応を含む。
画像レベルでは調整可能なパラメータベースのイメージフィルタを用い、検出器レベルでは調整可能なパラメータベースの平均教師モジュールを利用する。
最終的に、これらのバイレベル適応を利用することで、VCLチャレンジB内のテストセットのターゲットドメインにおいて38.3%のmAPを達成した。
関連論文リスト
- Boosting CLIP Adaptation for Image Quality Assessment via Meta-Prompt Learning and Gradient Regularization [55.09893295671917]
本稿では,Gdient-Regulated Meta-Prompt IQA Framework (GRMP-IQA)を紹介する。
GRMP-IQAはMeta-Prompt事前学習モジュールとQuality-Aware Gradient Regularizationの2つの主要なモジュールから構成されている。
5つの標準BIQAデータセットの実験は、限られたデータ設定下での最先端BIQA手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-09T07:26:21Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Rethinking Visual Content Refinement in Low-Shot CLIP Adaptation [31.023236232633213]
近年の適応は、コントラストビジョン・ランゲージ事前訓練の低ショット能力を高めることができる。
本稿では,テスト段階の適応計算に先立って,視覚的コンテンツリファインメント(VCR)を提案する。
提案手法を,13のデータセットを持つ3つの一般的なローショットベンチマークタスクに適用し,最先端の手法よりも大幅に改善した。
論文 参考訳(メタデータ) (2024-07-19T08:34:23Z) - Single Image Test-Time Adaptation for Segmentation [22.600586011303363]
この研究では、セグメンテーションモデルを、テスト時に利用可能な他のデータなしで、単一のラベルのないイメージに適応させる方法について検討する。
特に、この研究は、テスト時の自己監督的損失を最適化することで適応に焦点を当てている。
我々のベースラインへの追加は、非適応ベースラインよりも3.51と3.28%増加する。
論文 参考訳(メタデータ) (2023-09-25T11:31:18Z) - Test Time Adaptation for Blind Image Quality Assessment [20.50795362928567]
本報告では, ブラインドIQAにおけるTTAを実現するために, バッチとサンプルレベルに2つの新しい品質関連補助タスクを導入する。
実験の結果,テスト分布から少量の画像を使用しても,性能の大幅な向上が期待できることがわかった。
論文 参考訳(メタデータ) (2023-07-27T09:43:06Z) - Not All Features Matter: Enhancing Few-shot CLIP with Adaptive Prior
Refinement [24.108008515395458]
本稿では,CLIP の事前学習知識に対する適応的事前 rEfinement 手法である APE を提案する。
11以上のベンチマークの平均精度では、APEとAPE-Tはいずれも最先端に達し、x30より学習可能なパラメータの少ない16ショットで、それぞれ1.59%、+1.99%で2番目のベットを上回っている。
論文 参考訳(メタデータ) (2023-04-03T17:58:54Z) - TTA-COPE: Test-Time Adaptation for Category-Level Object Pose Estimation [86.80589902825196]
TTA-COPEと呼ばれるカテゴリレベルのオブジェクトポーズ推定のためのテスト時間適応法を提案する。
ポーズ認識信頼度を用いて、自己学習損失を伴うポーズアンサンブルアプローチを設計する。
当社のアプローチでは,テストデータを逐次的かつオンライン的に処理し,実行時にソースドメインにアクセスする必要はない。
論文 参考訳(メタデータ) (2023-03-29T14:34:54Z) - Train/Test-Time Adaptation with Retrieval [129.8579208970529]
Train/Test-Time Adaptation with Retrieval(rm T3AR$)を紹介します。
$rm T3AR$は、洗練された擬似ラベルと自己教師付きコントラスト目的関数を使用して、所定のモデルを下流タスクに適合させる。
検索モジュールのおかげで、ユーザまたはサービスプロバイダは、下流タスクのモデル適応を改善することができる。
論文 参考訳(メタデータ) (2023-03-25T02:44:57Z) - 1st Place Solution for ECCV 2022 OOD-CV Challenge Image Classification
Track [64.49153847504141]
OOD-CVチャレンジは配布外一般化タスクである。
この課題では、私たちのコアソリューションは、ノイズラベル学習が強いテスト時間ドメイン適応法である、と要約することができます。
テスト時間拡張戦略とモデルアンサンブル戦略を統合することで、OOD-CVチャレンジの画像分類リーダーボードに第一位にランクインする。
論文 参考訳(メタデータ) (2023-01-12T03:44:30Z) - MT3: Meta Test-Time Training for Self-Supervised Test-Time Adaption [69.76837484008033]
ディープラーニングの未解決の問題は、ニューラルネットワークがテスト時間中のドメインシフトに対処する能力である。
メタラーニング、自己監督、テストタイムトレーニングを組み合わせて、目に見えないテスト分布に適応する方法を学びます。
この手法はcifar-10による画像分類ベンチマークの最先端結果を大幅に改善する。
論文 参考訳(メタデータ) (2021-03-30T09:33:38Z) - Towards Better Object Detection in Scale Variation with Adaptive Feature
Selection [3.5352273012717044]
チャネル次元の多レベル表現を融合する方法を自動学習する新しい適応的特徴選択モジュール(AFSM)を提案する。
これは、特徴ピラミッド構造を持つ検出器の性能を著しく向上させる。
クラス不均衡問題に対処するために,クラス対応サンプリング機構(CASM)を提案する。
論文 参考訳(メタデータ) (2020-12-06T13:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。