論文の概要: BOWLL: A Deceptively Simple Open World Lifelong Learner
- arxiv url: http://arxiv.org/abs/2402.04814v1
- Date: Wed, 7 Feb 2024 13:04:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 15:26:57.522446
- Title: BOWLL: A Deceptively Simple Open World Lifelong Learner
- Title(参考訳): BOWLL: 極めてシンプルなオープンワールドの生涯学習者
- Authors: Roshni Kamath, Rupert Mitchell, Subarnaduti Paul, Kristian Kersting,
Martin Mundt
- Abstract要約: 本稿では,オープンワールドの生涯学習のための標準モデルを再活用する,極めてシンプルで効果的な方法を提案する。
我々のアプローチは、知識を効果的に維持し、情報的データに選択的に集中し、将来の学習を加速できるモデルの将来の標準として機能するべきです。
- 参考スコア(独自算出の注目度): 22.375833943808995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The quest to improve scalar performance numbers on predetermined benchmarks
seems to be deeply engraved in deep learning. However, the real world is seldom
carefully curated and applications are seldom limited to excelling on test
sets. A practical system is generally required to recognize novel concepts,
refrain from actively including uninformative data, and retain previously
acquired knowledge throughout its lifetime. Despite these key elements being
rigorously researched individually, the study of their conjunction, open world
lifelong learning, is only a recent trend. To accelerate this multifaceted
field's exploration, we introduce its first monolithic and much-needed
baseline. Leveraging the ubiquitous use of batch normalization across deep
neural networks, we propose a deceptively simple yet highly effective way to
repurpose standard models for open world lifelong learning. Through extensive
empirical evaluation, we highlight why our approach should serve as a future
standard for models that are able to effectively maintain their knowledge,
selectively focus on informative data, and accelerate future learning.
- Abstract(参考訳): 所定のベンチマークでスカラー性能を向上しようとする試みは、ディープラーニングに深く刻まれているようだ。
しかし、現実世界が注意深くキュレートされることはめったになく、アプリケーションはテストセットで優れていることに限定されない。
実践的なシステムは一般に、新しい概念を認識し、非形式的なデータを積極的に含まないよう要求され、その生涯を通じて獲得した知識を保持する。
これらの重要な要素が個別に厳格に研究されているにもかかわらず、それらの連携したオープンワールドの生涯学習の研究は、最近のトレンドにすぎない。
この多面体フィールドの探索を加速するために、最初のモノリシックで待望のベースラインを導入する。
深層ニューラルネットワークにおけるバッチ正規化のユビキタスな利用を活かし,オープンワールド学習のための標準モデルを再活用するための,極めて単純で極めて効果的な手法を提案する。
実験的な評価を通じて、我々のアプローチが知識を効果的に維持し、情報的データに選択的に集中し、将来の学習を加速できるモデルの将来の標準として機能すべき理由を強調した。
関連論文リスト
- Open-world Machine Learning: A Review and New Outlooks [88.62638732250427]
本稿では,新たなオープンワールド機械学習パラダイムを包括的に紹介することを目的としている。
研究者がそれぞれの分野でより強力なAIシステムを構築するのを支援し、人工知能の開発を促進することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T06:25:26Z) - Large-scale Pre-trained Models are Surprisingly Strong in Incremental
Novel Class Discovery [76.35226130521758]
我々は,MSc-iNCDという,より挑戦的で実践的な学習パラダイムを提案する。
本研究では,MSc-iNCDという,より困難で実践的な学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:47:16Z) - A Comprehensive Survey of Continual Learning: Theory, Method and
Application [64.23253420555989]
本稿では,基礎的設定,理論的基礎,代表的方法,実践的応用を橋渡しする継続的学習に関する包括的調査を行う。
連続学習の一般的な目的は、資源効率の文脈において、適切な安定性と塑性のトレードオフと適切なタスク内/タスク内一般化性を保証することであると要約する。
論文 参考訳(メタデータ) (2023-01-31T11:34:56Z) - Learning and Retrieval from Prior Data for Skill-based Imitation
Learning [47.59794569496233]
従来のデータから時間的に拡張された感触者スキルを抽出する,スキルベースの模倣学習フレームワークを開発した。
新規タスクの性能を著しく向上させる重要な設計選択をいくつか挙げる。
論文 参考訳(メタデータ) (2022-10-20T17:34:59Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Generalising via Meta-Examples for Continual Learning in the Wild [24.09600678738403]
我々は「野生で学習する」ニューラルネットワークを扱うための新しい戦略を開発する
MEML - Meta-Example Meta-Learning - 破滅的な忘れを同時に緩和する新しいモジュール。
様々な拡張タスクを作成し、最も難しいタスクを最適化する手法を採用して拡張する。
論文 参考訳(メタデータ) (2021-01-28T15:51:54Z) - Deep Bayesian Active Learning, A Brief Survey on Recent Advances [6.345523830122166]
アクティブラーニングは、ラベル付きデータの小さなサイズでモデルをトレーニングし始める。
ディープラーニングメソッドはモデルの不確実性を表現あるいは操作できない。
deep bayesian active learningフレームワークは、モデルにおける実践的な考察を提供する。
論文 参考訳(メタデータ) (2020-12-15T02:06:07Z) - A Wholistic View of Continual Learning with Deep Neural Networks:
Forgotten Lessons and the Bridge to Active and Open World Learning [8.188575923130662]
オープンデータセット認識による顕著な教訓,観測データセット外の統計的逸脱したデータの識別,および近接するアクティブラーニングの分野は,深層学習時代においてしばしば見過ごされる。
我々の結果は、これは個々のパラダイムに利益をもたらすだけでなく、共通のフレームワークにおける自然なシナジーを強調していることを示している。
論文 参考訳(メタデータ) (2020-09-03T16:56:36Z) - An Overview of Deep Semi-Supervised Learning [8.894935073145252]
半教師付き学習とそのディープニューラルネットワークへの応用に対する研究の関心が高まっている。
本稿では,本分野の紹介から始まる深層半教師あり学習の概要について概説する。
論文 参考訳(メタデータ) (2020-06-09T14:08:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。