論文の概要: Wanderlust: Online Continual Object Detection in the Real World
- arxiv url: http://arxiv.org/abs/2108.11005v1
- Date: Wed, 25 Aug 2021 01:08:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 21:47:54.407309
- Title: Wanderlust: Online Continual Object Detection in the Real World
- Title(参考訳): Wanderlust: 現実世界におけるオンライン連続物体検出
- Authors: Jianren Wang, Xin Wang, Yue Shang-Guan, Abhinav Gupta
- Abstract要約: 我々は、エゴセントリックなビデオデータセットであるObjects Around Krishna (OAK)を用いたオンライン連続物体検出ベンチマークを提案する。
OAKは、屋外シーンで105のオブジェクトカテゴリに対して、80本のビデオスニペット(17.5時間)の完全なバウンディングボックスアノテーションを提供する。
私たちのベンチマークにおける新しいオブジェクトカテゴリの出現は、一人の人が日々の生活で見るものに似たパターンに従っています。
- 参考スコア(独自算出の注目度): 37.11805257378546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online continual learning from data streams in dynamic environments is a
critical direction in the computer vision field. However, realistic benchmarks
and fundamental studies in this line are still missing. To bridge the gap, we
present a new online continual object detection benchmark with an egocentric
video dataset, Objects Around Krishna (OAK). OAK adopts the KrishnaCAM videos,
an ego-centric video stream collected over nine months by a graduate student.
OAK provides exhaustive bounding box annotations of 80 video snippets (~17.5
hours) for 105 object categories in outdoor scenes. The emergence of new object
categories in our benchmark follows a pattern similar to what a single person
might see in their day-to-day life. The dataset also captures the natural
distribution shifts as the person travels to different places. These egocentric
long-running videos provide a realistic playground for continual learning
algorithms, especially in online embodied settings. We also introduce new
evaluation metrics to evaluate the model performance and catastrophic
forgetting and provide baseline studies for online continual object detection.
We believe this benchmark will pose new exciting challenges for learning from
non-stationary data in continual learning. The OAK dataset and the associated
benchmark are released at https://oakdata.github.io/.
- Abstract(参考訳): 動的環境におけるデータストリームからのオンライン連続学習は、コンピュータビジョン分野における重要な方向である。
しかし、このラインにおける現実的なベンチマークや基礎研究はまだ欠落している。
このギャップを埋めるために、エゴセントリックなビデオデータセットであるObjects Around Krishna (OAK)を用いた新しいオンライン連続オブジェクト検出ベンチマークを提案する。
OAKは、大学院生が9ヶ月以上にわたって収集したエゴ中心のビデオストリームであるKrishnaCAMビデオを採用している。
OAKは、屋外シーンで105のオブジェクトカテゴリに対して、80本のビデオスニペット(約17.5時間)の包括的なバウンディングボックスアノテーションを提供する。
ベンチマークにおける新しいオブジェクトカテゴリの出現は、1人の人が日々の生活で見るようなパターンに従っています。
データセットは、人が別の場所へ行くと、自然な分布シフトもキャプチャする。
これらのエゴセントリックなロングラン動画は、特にオンラインの具体的設定において、継続的な学習アルゴリズムの現実的な遊び場を提供する。
また,新しい評価指標を導入し,モデルの性能と破滅的な忘れ方を評価し,オンライン連続物体検出のためのベースラインスタディを提供する。
このベンチマークは、継続学習における非定常データからの学習に新たなエキサイティングな課題をもたらすと思います。
OAKデータセットと関連するベンチマークはhttps://oakdata.github.io/で公開されている。
関連論文リスト
- Towards Student Actions in Classroom Scenes: New Dataset and Baseline [43.268586725768465]
複雑な教室シーンを対象とした,SAV(Multi-label student action video)データセットを提案する。
データセットは、758の教室から、4,324の慎重にトリミングされたビデオクリップで構成され、それぞれに15の教室で生徒が表示するアクションがラベル付けされている。
論文 参考訳(メタデータ) (2024-09-02T03:44:24Z) - VERSE: Virtual-Gradient Aware Streaming Lifelong Learning with Anytime
Inference [36.61783715563126]
生涯学習をストリーミングすることは、忘れずに継続的な学習を目標とすることで、生涯学習の挑戦的な設定である。
ストリーミング(学習例は1回に1回のみ)である生涯学習に新たなアプローチを導入する。
本稿では,各新しい例に適応し,過去のデータにも順応し,破滅的な忘れ込みを防止できる新しいエンフェクチュアル勾配に基づく連続表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T07:54:49Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - LID 2020: The Learning from Imperfect Data Challenge Results [242.86700551532272]
Imperfect Dataワークショップからの学習は、新しいアプローチの開発に刺激を与え、促進することを目的としている。
我々は、弱教師付き学習環境における最先端のアプローチを見つけるために、3つの課題を編成する。
この技術的レポートは、課題のハイライトを要約している。
論文 参考訳(メタデータ) (2020-10-17T13:06:12Z) - Learning Disentangled Representations of Video with Missing Data [17.34839550557689]
本稿では,DIVE(Disentangled Imputed Video AutoEncoder)について紹介する。
具体的には、DIVEは遅延変数を導入し、隠れたビデオ表現を静的でダイナミックな外観、ポーズ、各オブジェクトの欠落要素に分解する。
さまざまな不足シナリオを持つ移動MNISTデータセットでは、DIVEは、アートベースラインの状態をかなりのマージンで上回る。
論文 参考訳(メタデータ) (2020-06-23T23:54:49Z) - Comprehensive Instructional Video Analysis: The COIN Dataset and
Performance Evaluation [100.68317848808327]
包括的インストラクショナルビデオ解析のための大規模データセット「COIN」を提案する。
COINデータセットには、日々の生活に関連する12の領域で180のタスクの11,827の動画が含まれている。
新しい開発ツールボックスでは、すべてのビデオに一連のステップラベルと対応する時間境界がアノテートされる。
論文 参考訳(メタデータ) (2020-03-20T16:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。