論文の概要: 1st Place Solution for ECCV 2022 OOD-CV Challenge Object Detection Track
- arxiv url: http://arxiv.org/abs/2301.04796v1
- Date: Thu, 12 Jan 2023 03:50:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 14:27:56.945500
- Title: 1st Place Solution for ECCV 2022 OOD-CV Challenge Object Detection Track
- Title(参考訳): eccv 2022 ood-cvチャレンジオブジェクト検出トラックの1位解
- Authors: Wei Zhao, Binbin Chen, Weijie Chen, Shicai Yang, Di Xie, Shiliang Pu,
Yueting Zhuang
- Abstract要約: Generalize-then-Adapt(G&A)フレームワークは、2段ドメイン一般化部と1段ドメイン適応部とから構成される。
提案したG&Aフレームワークは,OOD-CVチャレンジにおけるオブジェクト検出リーダボードの初歩的な実現に役立ちます。
- 参考スコア(独自算出の注目度): 71.12470906323298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: OOD-CV challenge is an out-of-distribution generalization task. To solve this
problem in object detection track, we propose a simple yet effective
Generalize-then-Adapt (G&A) framework, which is composed of a two-stage domain
generalization part and a one-stage domain adaptation part. The domain
generalization part is implemented by a Supervised Model Pretraining stage
using source data for model warm-up and a Weakly Semi-Supervised Model
Pretraining stage using both source data with box-level label and auxiliary
data (ImageNet-1K) with image-level label for performance boosting. The domain
adaptation part is implemented as a Source-Free Domain Adaptation paradigm,
which only uses the pre-trained model and the unlabeled target data to further
optimize in a self-supervised training manner. The proposed G&A framework help
us achieve the first place on the object detection leaderboard of the OOD-CV
challenge. Code will be released in
https://github.com/hikvision-research/OOD-CV.
- Abstract(参考訳): OOD-CVチャレンジは配布外一般化タスクである。
オブジェクト検出トラックにおけるこの問題を解決するために,2段階の領域一般化部と1段階の領域適応部からなる,シンプルで効果的な一般化適応(G&A)フレームワークを提案する。
ドメイン一般化部は、モデルウォームアップのためのソースデータを用いた教師付きモデルプリトレーニングステージと、ボックスレベルラベル付きソースデータと、パフォーマンスブースティング用画像レベルラベル付き補助データ(imagenet-1k)の両方を使用して弱半教師付きモデルプリトレーニングステージとによって実装される。
ドメイン適応部は、事前訓練されたモデルと未ラベルのターゲットデータのみを使用して、自己監督的なトレーニング方法でさらなる最適化を行う、ソースフリードメイン適応パラダイムとして実装される。
提案したG&Aフレームワークは,OOD-CVチャレンジにおけるオブジェクト検出リーダボードの初歩的な実現に役立ちます。
コードはhttps://github.com/hikvision-research/OOD-CVでリリースされる。
関連論文リスト
- Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - Detect, Augment, Compose, and Adapt: Four Steps for Unsupervised Domain
Adaptation in Object Detection [7.064953237013352]
教師なし領域適応(Unsupervised domain adapt、UDA)は、アノテートされたデータなしで、ソース学習された検出器を対象領域に適応させる際に、オブジェクト検出において重要な役割を果たす。
自己超越性を活用し,ソースとターゲットデータを同時に訓練する,新しい,効果的な4段階のUDA手法を提案する。
提案手法は最先端性能を実現し,平均精度(mAP)を2%以上向上させる。
論文 参考訳(メタデータ) (2023-08-29T14:48:29Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Continual Source-Free Unsupervised Domain Adaptation [37.060694803551534]
既存のソースフリーのUnsupervised Domain Adaptationアプローチは破滅的な忘れを見せる。
本稿では,SuDAの継続的な学習環境における課題に対応するための連続的なSUDA(C-SUDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T20:11:05Z) - 1st Place Solution for ECCV 2022 OOD-CV Challenge Image Classification
Track [64.49153847504141]
OOD-CVチャレンジは配布外一般化タスクである。
この課題では、私たちのコアソリューションは、ノイズラベル学習が強いテスト時間ドメイン適応法である、と要約することができます。
テスト時間拡張戦略とモデルアンサンブル戦略を統合することで、OOD-CVチャレンジの画像分類リーダーボードに第一位にランクインする。
論文 参考訳(メタデータ) (2023-01-12T03:44:30Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - 1st Place Solution to VisDA-2020: Bias Elimination for Domain Adaptive
Pedestrian Re-identification [17.065458476210175]
本稿では,視覚領域適応チャレンジ(VisDA-2020)における領域適応型歩行者再識別(Re-ID)タスクを提案する。
ソースドメインとターゲットドメインの間の大きなギャップを考慮すると、ドメイン適応歩行者リidの性能に影響を与える2つのバイアスの解決に焦点をあてた。
私達の方法はテスト セットの76.56% mAPそして84.25%のランク-1を達成します。
論文 参考訳(メタデータ) (2020-12-25T03:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。