論文の概要: Knowing when we do not know: Bayesian continual learning for
sensing-based analysis tasks
- arxiv url: http://arxiv.org/abs/2106.05872v1
- Date: Sun, 6 Jun 2021 13:45:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:13:29.011443
- Title: Knowing when we do not know: Bayesian continual learning for
sensing-based analysis tasks
- Title(参考訳): 知らない時を知る: 知覚に基づく分析タスクのためのベイズ連続学習
- Authors: Sandra Servia-Rodriguez, Cecilia Mascolo and Young D. Kwon
- Abstract要約: 本研究では,実世界のセンサベース分析タスクの集合を継続的に学習するベイズ推論に基づくフレームワークを提案する。
本実験は,学習モデルの堅牢性と信頼性を実証し,センサ環境の変化に適応させるものである。
- 参考スコア(独自算出の注目度): 8.201216572526302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite much research targeted at enabling conventional machine learning
models to continually learn tasks and data distributions sequentially without
forgetting the knowledge acquired, little effort has been devoted to account
for more realistic situations where learning some tasks accurately might be
more critical than forgetting previous ones. In this paper we propose a
Bayesian inference based framework to continually learn a set of real-world,
sensing-based analysis tasks that can be tuned to prioritize the remembering of
previously learned tasks or the learning of new ones. Our experiments prove the
robustness and reliability of the learned models to adapt to the changing
sensing environment, and show the suitability of using uncertainty of the
predictions to assess their reliability.
- Abstract(参考訳): 従来の機械学習モデルが獲得した知識を忘れることなく、タスクやデータ分布を連続的に学習することを可能にすることを目的とした多くの研究にもかかわらず、いくつかのタスクを正確に学習することが以前の知識を忘れるより重要になるような現実的状況を説明することには、ほとんど努力が払われていない。
本稿では,事前学習したタスクの記憶や新しいタスクの学習を優先するために調整可能な,実世界のセンシングに基づく分析タスクのセットを継続的に学習するベイズ推論に基づくフレームワークを提案する。
本実験は,学習モデルのロバスト性と信頼性を,変化するセンシング環境に適応することを示すとともに,その信頼性を評価するために予測の不確実性を用いることが適切であることを示す。
関連論文リスト
- Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Overcoming Generic Knowledge Loss with Selective Parameter Update [48.240683797965005]
基礎モデルを継続的に更新する新しい手法を提案する。
すべてのパラメータを均等に更新する代わりに、学習しているタスクに関連するパラメータのスパースセットにアップデートをローカライズします。
提案手法は,学習済みのタスクの精度を最大7%向上すると同時に,学習前知識を0.9%減少させることなく,代表制御セットの精度を低下させる。
論文 参考訳(メタデータ) (2023-08-23T22:55:45Z) - Trust, but Verify: Using Self-Supervised Probing to Improve
Trustworthiness [29.320691367586004]
我々は、訓練されたモデルに対する自信の過剰な問題をチェックおよび緩和することのできる、自己教師型探索の新しいアプローチを導入する。
既存の信頼性関連手法に対して,プラグイン・アンド・プレイ方式で柔軟に適用可能な,シンプルで効果的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-06T08:57:20Z) - Learning and Retrieval from Prior Data for Skill-based Imitation
Learning [47.59794569496233]
従来のデータから時間的に拡張された感触者スキルを抽出する,スキルベースの模倣学習フレームワークを開発した。
新規タスクの性能を著しく向上させる重要な設計選択をいくつか挙げる。
論文 参考訳(メタデータ) (2022-10-20T17:34:59Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Continual Learning with Neuron Activation Importance [1.7513645771137178]
連続学習は、複数のシーケンシャルなタスクを伴うオンライン学習の概念である。
連続学習の重要な障壁の1つは、ネットワークが古いタスクのデータにアクセスせずに古いタスクの知識を保持する新しいタスクを学習すべきである。
本稿では,タスクの順序によらず,安定な連続学習のためのニューロン活性化重要度に基づく正規化手法を提案する。
論文 参考訳(メタデータ) (2021-07-27T08:09:32Z) - Knowledge-driven Data Construction for Zero-shot Evaluation in
Commonsense Question Answering [80.60605604261416]
本稿では,共通認識課題にまたがるゼロショット質問応答のための新しいニューラルシンボリック・フレームワークを提案する。
言語モデル、トレーニング体制、知識ソース、データ生成戦略のセットを変えて、タスク間の影響を測定します。
個別の知識グラフは特定のタスクに適しているが、グローバルな知識グラフはさまざまなタスクに対して一貫した利得をもたらす。
論文 参考訳(メタデータ) (2020-11-07T22:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。