論文の概要: nVFNet-RDC: Replay and Non-Local Distillation Collaboration for
Continual Object Detection
- arxiv url: http://arxiv.org/abs/2209.03603v1
- Date: Thu, 8 Sep 2022 06:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:08:33.168621
- Title: nVFNet-RDC: Replay and Non-Local Distillation Collaboration for
Continual Object Detection
- Title(参考訳): nVFNet-RDC:連続物体検出のための再生・非局所蒸留協調
- Authors: Jinxiang Lai, Wenlong Liu, Jun Liu
- Abstract要約: 継続的学習(CL)は、新しい環境に適応し、新しいスキルを学ぶ能力を持つアルゴリズムの開発に焦点を当てている。
本稿では,連続物体検出のためのnVFNet-RDC手法を提案する。
- 参考スコア(独自算出の注目度): 5.921200505884732
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continual Learning (CL) focuses on developing algorithms with the ability to
adapt to new environments and learn new skills. This very challenging task has
generated a lot of interest in recent years, with new solutions appearing
rapidly. In this paper, we propose a nVFNet-RDC approach for continual object
detection. Our nVFNet-RDC consists of teacher-student models, and adopts replay
and feature distillation strategies. As the 1st place solutions, we achieve
55.94% and 54.65% average mAP on the 3rd CLVision Challenge Track 2 and Track
3, respectively.
- Abstract(参考訳): 継続的学習(CL)は、新しい環境に適応し、新しいスキルを学ぶ能力を持つアルゴリズムの開発に焦点を当てている。
この非常に困難なタスクは近年、新しいソリューションが急速に登場し、多くの関心を集めています。
本稿では,連続物体検出のためのnVFNet-RDC手法を提案する。
我々のnVFNet-RDCは教師学生モデルで構成されており、リプレイと特徴蒸留戦略を採用している。
第1位のソリューションとして、第3のCLVision Challenge Track 2 と Track 3 でそれぞれ 55.94% と 54.65% の平均 mAP を達成した。
関連論文リスト
- Augmentation-Free Dense Contrastive Knowledge Distillation for Efficient
Semantic Segmentation [16.957139277317005]
Af-DCD(Augmentation-free Dense Contrastive Knowledge Distillation)は、新しいコントラスト蒸留学習パラダイムである。
Af-DCDはセマンティックセグメンテーションのためのコンパクトで正確なディープニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2023-12-07T09:37:28Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object
Detection [83.57616404714172]
Open-vocabulary Object Detection (OVOD) は、トレーニング中に観察されるクラス以外のオブジェクトを検出することを目的としている。
本研究は、事前学習された視覚言語モデル(VLM)のゼロショット分類能力を活用して、新しいクラスの提案を直接発見する単純な効果的な戦略を示す。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - For SALE: State-Action Representation Learning for Deep Reinforcement
Learning [60.42044715596703]
SALEは、状態と行動の間のニュアンスな相互作用をモデル化する埋め込みを学ぶための新しいアプローチである。
我々は、SALEとRLのチェックポイントをTD3に統合し、TD7アルゴリズムを構成する。
OpenAIのジムのベンチマークタスクでは、TD7は平均276.7%、TD3よりも50.7%、それぞれ300k、500Mのタイムステップでパフォーマンスが向上している。
論文 参考訳(メタデータ) (2023-06-04T19:47:46Z) - Neural Radiance Field Codebooks [53.01356339021285]
我々は、オブジェクト指向表現を学習するためのスケーラブルな方法であるNeural Radiance Field Codebooks (NRC)を紹介する。
NRCは、ボリューム再構成によってデコードされたオブジェクトコードの辞書を使用して、新しいビューからシーンを再構築することを学ぶ。
NRC表現は、THORのオブジェクトナビゲーションによく対応し、2Dおよび3D表現学習法を3.1%の成功率で上回ることを示す。
論文 参考訳(メタデータ) (2023-01-10T18:03:48Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - GCR: Gradient Coreset Based Replay Buffer Selection For Continual
Learning [1.911678487931003]
調査対象のオフライン学習環境において,最先端の学習に比べて有意な増加(2%~4%)を示した。
また、オンライン/ストリーミングのCL設定にも効果的に移行し、既存のアプローチよりも最大5%向上しました。
論文 参考訳(メタデータ) (2021-11-18T18:01:57Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。