論文の概要: BOWL: A Deceptively Simple Open World Learner
- arxiv url: http://arxiv.org/abs/2402.04814v2
- Date: Fri, 14 Mar 2025 12:41:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:03:41.229215
- Title: BOWL: A Deceptively Simple Open World Learner
- Title(参考訳): BOWL: 極めてシンプルなオープンワールド学習者
- Authors: Roshni . R. Kamath, Rupert Mitchell, Subarnaduti Paul, Kristian Kersting, Martin Mundt,
- Abstract要約: 従来の機械学習は静的なベンチマークに優れていますが、現実の世界は動的であり、テストセットと同じくらい慎重にキュレートされることはめったにありません。
本稿では,ニューラルネットワークにはすでに,オープンワールド学習者になるための強力な触媒が備わっていると仮定する。
本手法は,分布内および分布外サンプルを検出し,情報的データポイントを選択し,モデルを継続的に更新するための効果的な戦略を導出する。
- 参考スコア(独自算出の注目度): 20.856520787551453
- License:
- Abstract: Traditional machine learning excels on static benchmarks, but the real world is dynamic and seldom as carefully curated as test sets. Practical applications may generally encounter undesired inputs, are required to deal with novel information, and need to ensure operation through their full lifetime - aspects where standard deep models struggle. These three elements may have been researched individually, but their practical conjunction, i.e., open world learning, is much less consolidated. In this paper, we posit that neural networks already contain a powerful catalyst to turn them into open world learners: the batch normalization layer. Leveraging its tracked statistics, we derive effective strategies to detect in- and out-of-distribution samples, select informative data points, and update the model continuously. This, in turn, allows us to demonstrate that existing batch-normalized models can be made more robust, less prone to forgetting over time, and be trained efficiently with less data.
- Abstract(参考訳): 従来の機械学習は静的なベンチマークに優れていますが、現実の世界は動的であり、テストセットと同じくらい慎重にキュレートされることはめったにありません。
一般的には、望ましくない入力に遭遇し、新しい情報を扱うために要求され、標準のディープモデルが苦労する側面である、フルライフタイムでの運用を保証する必要がある。
これらの3つの要素は個別に研究された可能性があるが、それらの実践的な連携、すなわちオープンワールドラーニングは、あまり統合されていない。
本稿では,ニューラルネットワークにはすでに,オープンワールドの学習者(バッチ正規化層)になるための強力な触媒が存在することを仮定する。
追跡された統計情報を活用することで、分布内および分布外サンプルを検出し、情報的データポイントを選択し、モデルを継続的に更新する効果的な戦略を導出する。
これにより、既存のバッチ正規化モデルがより堅牢になり、時間の経過とともに忘れられにくくなり、少ないデータで効率的にトレーニングできることを示すことができます。
関連論文リスト
- LLMs for Generalizable Language-Conditioned Policy Learning under Minimal Data Requirements [50.544186914115045]
本稿では,オフライン言語によるポリシー学習のための新しいトレーニングパイプラインTEDUOを提案する。
TEDUOは、分かりやすい、ラベルなしのデータセットを運用し、いわゆるインザワイルド評価(in-the-wild evaluation)に適している。
論文 参考訳(メタデータ) (2024-12-09T18:43:56Z) - Towards Few-Shot Learning in the Open World: A Review and Beyond [52.41344813375177]
少ないショット学習は、人間の知性を模倣し、大きな一般化と伝達性を実現することを目的としている。
本稿では,FSLをオープンワールド環境に適用するための最近の進歩について概説する。
既存の手法は,3つの異なるタイプのオープンワールド・マイクロショット・ラーニングに分類する。
論文 参考訳(メタデータ) (2024-08-19T06:23:21Z) - Open-world Machine Learning: A Review and New Outlooks [83.6401132743407]
本稿では,新たなオープンワールド機械学習パラダイムを包括的に紹介することを目的としている。
研究者がそれぞれの分野でより強力なAIシステムを構築するのを支援し、人工知能の開発を促進することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T06:25:26Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Label-efficient Time Series Representation Learning: A Review [19.218833228063392]
ラベル効率のよい時系列表現学習は、現実世界のアプリケーションにディープラーニングモデルをデプロイするのに不可欠である。
ラベル付き時系列データの不足に対処するため、転送学習、自己教師付き学習、半教師付き学習など様々な戦略が開発されている。
既存のアプローチを,外部データソースへの依存に基づいて,ドメイン内あるいはクロスドメインとして分類する,新たな分類法を初めて導入する。
論文 参考訳(メタデータ) (2023-02-13T15:12:15Z) - Learning and Retrieval from Prior Data for Skill-based Imitation
Learning [47.59794569496233]
従来のデータから時間的に拡張された感触者スキルを抽出する,スキルベースの模倣学習フレームワークを開発した。
新規タスクの性能を著しく向上させる重要な設計選択をいくつか挙げる。
論文 参考訳(メタデータ) (2022-10-20T17:34:59Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Generalising via Meta-Examples for Continual Learning in the Wild [24.09600678738403]
我々は「野生で学習する」ニューラルネットワークを扱うための新しい戦略を開発する
MEML - Meta-Example Meta-Learning - 破滅的な忘れを同時に緩和する新しいモジュール。
様々な拡張タスクを作成し、最も難しいタスクを最適化する手法を採用して拡張する。
論文 参考訳(メタデータ) (2021-01-28T15:51:54Z) - Deep Bayesian Active Learning, A Brief Survey on Recent Advances [6.345523830122166]
アクティブラーニングは、ラベル付きデータの小さなサイズでモデルをトレーニングし始める。
ディープラーニングメソッドはモデルの不確実性を表現あるいは操作できない。
deep bayesian active learningフレームワークは、モデルにおける実践的な考察を提供する。
論文 参考訳(メタデータ) (2020-12-15T02:06:07Z) - A Wholistic View of Continual Learning with Deep Neural Networks:
Forgotten Lessons and the Bridge to Active and Open World Learning [8.188575923130662]
オープンデータセット認識による顕著な教訓,観測データセット外の統計的逸脱したデータの識別,および近接するアクティブラーニングの分野は,深層学習時代においてしばしば見過ごされる。
我々の結果は、これは個々のパラダイムに利益をもたらすだけでなく、共通のフレームワークにおける自然なシナジーを強調していることを示している。
論文 参考訳(メタデータ) (2020-09-03T16:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。