論文の概要: CVPR 2020 Continual Learning in Computer Vision Competition: Approaches,
Results, Current Challenges and Future Directions
- arxiv url: http://arxiv.org/abs/2009.09929v1
- Date: Mon, 14 Sep 2020 08:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:15:09.341307
- Title: CVPR 2020 Continual Learning in Computer Vision Competition: Approaches,
Results, Current Challenges and Future Directions
- Title(参考訳): コンピュータビジョンコンペティションにおけるCVPR 2020継続学習:アプローチ,結果,課題,今後の方向性
- Authors: Vincenzo Lomonaco, Lorenzo Pellegrini, Pau Rodriguez, Massimo Caccia,
Qi She, Yu Chen, Quentin Jodelet, Ruiping Wang, Zheda Mai, David Vazquez,
German I. Parisi, Nikhil Churamani, Marc Pickett, Issam Laradji, Davide
Maltoni
- Abstract要約: 2020年にCVPRで行われた最初の連続学習コンピュータビジョンチャレンジは、異なる連続学習アルゴリズムを評価する最初の機会の1つである。
優勝チームは79チーム以上、ファイナリストは11チーム、賞金は2300ドルだった。
- 参考スコア(独自算出の注目度): 25.791936837340877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last few years, we have witnessed a renewed and fast-growing interest
in continual learning with deep neural networks with the shared objective of
making current AI systems more adaptive, efficient and autonomous. However,
despite the significant and undoubted progress of the field in addressing the
issue of catastrophic forgetting, benchmarking different continual learning
approaches is a difficult task by itself. In fact, given the proliferation of
different settings, training and evaluation protocols, metrics and
nomenclature, it is often tricky to properly characterize a continual learning
algorithm, relate it to other solutions and gauge its real-world applicability.
The first Continual Learning in Computer Vision challenge held at CVPR in 2020
has been one of the first opportunities to evaluate different continual
learning algorithms on a common hardware with a large set of shared evaluation
metrics and 3 different settings based on the realistic CORe50 video benchmark.
In this paper, we report the main results of the competition, which counted
more than 79 teams registered, 11 finalists and 2300$ in prizes. We also
summarize the winning approaches, current challenges and future research
directions.
- Abstract(参考訳): ここ数年、私たちは、現在のAIシステムをより適応的、効率的、自律的にすることを目的として、ディープニューラルネットワークによる継続的学習への関心が急速に高まっているのを目撃してきました。
しかし、破滅的な忘れ込みの問題に対処する分野の重大な進歩にもかかわらず、異なる連続学習アプローチのベンチマークはそれ自体が難しい課題である。
実際、異なる設定、トレーニングおよび評価プロトコル、メトリクスおよび命名法の増加を考えると、連続学習アルゴリズムを適切に特徴付けし、他のソリューションと関連付け、実際の適用可能性を評価するのは、しばしば難しい。
2020年にCVPRで開催された最初のContinuous Learning in Computer Visionチャレンジは、共有評価メトリクスの大規模なセットと、現実的なCORe50ビデオベンチマークに基づく3つの異なる設定を備えた、共通のハードウェア上で異なる連続学習アルゴリズムを評価する最初の機会の1つである。
本稿では,79チーム以上を登録し,11人のファイナリストと2300ドルの賞金を計上した大会の主な結果について報告する。
また、勝利のアプローチ、現在の課題、今後の研究方向性についてもまとめる。
関連論文リスト
- How green is continual learning, really? Analyzing the energy consumption in continual training of vision foundation models [10.192658261639549]
本研究では,連続学習アルゴリズムのエネルギー効率を体系的に理解することを目的とする。
CIFAR-100, ImageNet-R, DomainNetの3つの標準データセットで実験を行った。
本稿では,エネルギー・正確性トレードオフの観点からアルゴリズムの効率を計測する新しい指標であるEnergy NetScoreを提案する。
論文 参考訳(メタデータ) (2024-09-27T11:50:10Z) - Are we making progress in unlearning? Findings from the first NeurIPS unlearning competition [70.60872754129832]
アンラーニングに関する最初のNeurIPSコンペティションは、新しいアルゴリズムの開発を刺激しようとした。
世界中から約1200チームが参加した。
トップソリューションを分析し、アンラーニングのベンチマークに関する議論を掘り下げます。
論文 参考訳(メタデータ) (2024-06-13T12:58:00Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - 3rd Continual Learning Workshop Challenge on Egocentric Category and
Instance Level Object Understanding [20.649762891903602]
本稿では,CVPR 2022の第3回コンピュータビジョン学習ワークショップ(CLVision)における課題のアイデア,設計選択,ルール,結果について要約する。
このコンペティションの焦点は、複雑な連続物体検出タスクであり、分類タスクと比較して、文学においてまだ過小評価されている。
論文 参考訳(メタデータ) (2022-12-13T11:51:03Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - CLAD: A realistic Continual Learning benchmark for Autonomous Driving [33.95470797472666]
本稿では、自動運転のための新しい連続学習ベンチマークを動機づける設計とアイデアについて述べる。
ベンチマークでは、先日リリースされた大規模なデータセットであるSODA10Mが使用されている。
CLAD-Cは、クラスとドメインの漸進的な課題を生じさせる時系列データストリームを通じて実現されたオンライン分類ベンチマークである。
ICCV 2021のCLAD-Challengeワークショップにおいて,トップ3の参加者が使用するテクニックと手法を調査し,ベンチマークがもたらす課題と課題について検討した。
論文 参考訳(メタデータ) (2022-10-07T12:08:25Z) - 2021 BEETL Competition: Advancing Transfer Learning for Subject
Independence & Heterogenous EEG Data Sets [89.84774119537087]
我々は、診断とBCI(Brain-Computer-Interface)に関する2つの伝達学習課題を設計する。
第1タスクは、患者全体にわたる自動睡眠ステージアノテーションに対処する医療診断に重点を置いている。
タスク2はBrain-Computer Interface (BCI)に集中しており、被験者とデータセットの両方にわたる運動画像のデコードに対処する。
論文 参考訳(メタデータ) (2022-02-14T12:12:20Z) - The MineRL 2020 Competition on Sample Efficient Reinforcement Learning
using Human Priors [62.9301667732188]
我々は,MineRLコンペティションの第2イテレーションを提案する。
競争の主な目標は、人間のデモンストレーションを効率的に活用できるアルゴリズムの開発を促進することです。
コンペティションは、データセットと環境のペアバージョンが複数提供される2ラウンドで構成されている。
各ラウンドの終わりに、競合他社はコンテナ化された学習アルゴリズムをaicrowdプラットフォームに提出する。
論文 参考訳(メタデータ) (2021-01-26T20:32:30Z) - Analysing Affective Behavior in the First ABAW 2020 Competition [49.90617840789334]
ABAW(Affective Behavior Analysis in-the-Wild) 2020コンペティションは、3つの主要な行動タスクの自動分析を目的とした最初のコンペティションである。
アルゼンチンのブエノスアイレスで2020年5月に開催されたIEEE Face and Gesture Recognitionと共同で開催されるこのコンペティションについて説明する。
評価指標を概説し,ベースラインシステムとトップ3の実施するチームの方法論をチャレンジ毎に提示し,その結果を最終的に提示する。
論文 参考訳(メタデータ) (2020-01-30T15:41:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。