論文の概要: Adaptive Explainable Continual Learning Framework for Regression
Problems with Focus on Power Forecasts
- arxiv url: http://arxiv.org/abs/2108.10781v1
- Date: Tue, 24 Aug 2021 14:59:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:12:45.262943
- Title: Adaptive Explainable Continual Learning Framework for Regression
Problems with Focus on Power Forecasts
- Title(参考訳): 電力予測に着目した回帰問題に対する適応的説明型連続学習フレームワーク
- Authors: Yujiang He
- Abstract要約: この文脈における潜在的な課題を説明するために、2つの連続的な学習シナリオが提案される。
ディープニューラルネットワークは、新しいタスクを学習し、アプリケーションのデータ量が増加し続けるにつれて、古いタスクから得た知識を忘れないようにしなければならない。
研究トピックは関連しているが、連続的なディープラーニングアルゴリズムの開発、データストリームにおける非定常検出戦略、説明可能で可視化可能な人工知能などに限定されていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared with traditional deep learning techniques, continual learning
enables deep neural networks to learn continually and adaptively. Deep neural
networks have to learn new tasks and overcome forgetting the knowledge obtained
from the old tasks as the amount of data keeps increasing in applications. In
this article, two continual learning scenarios will be proposed to describe the
potential challenges in this context. Besides, based on our previous work
regarding the CLeaR framework, which is short for continual learning for
regression tasks, the work will be further developed to enable models to extend
themselves and learn data successively. Research topics are related but not
limited to developing continual deep learning algorithms, strategies for
non-stationarity detection in data streams, explainable and visualizable
artificial intelligence, etc. Moreover, the framework- and algorithm-related
hyperparameters should be dynamically updated in applications. Forecasting
experiments will be conducted based on power generation and consumption data
collected from real-world applications. A series of comprehensive evaluation
metrics and visualization tools can help analyze the experimental results. The
proposed framework is expected to be generally applied to other constantly
changing scenarios.
- Abstract(参考訳): 従来のディープラーニング技術と比較して、連続学習はディープニューラルネットワークを継続的に適応的に学習することを可能にする。
ディープニューラルネットワークは、新しいタスクを学習し、アプリケーションのデータ量が増加し続けるにつれて、古いタスクから得られた知識を克服しなければならない。
本稿では,この文脈における潜在的な課題を説明するために,2つの連続学習シナリオを提案する。
さらに、回帰タスクの継続的な学習に短いCLeaRフレームワークに関するこれまでの研究に基づいて、モデルが自分自身を拡張し、データを連続的に学習できるように、さらに開発を進めていく予定です。
研究トピックは関連するが、継続的なディープラーニングアルゴリズムの開発、データストリームにおける非定常検出戦略、説明可能で可視化可能な人工知能などに限定されない。
さらに、フレームワークとアルゴリズム関連のハイパーパラメータをアプリケーションで動的に更新する必要がある。
実世界のアプリケーションから収集した発電および消費データに基づいて予測実験を行う。
一連の総合的な評価指標と視覚化ツールは、実験結果の分析に役立つ。
提案されたフレームワークは、他の絶えず変化するシナリオに一般的に適用されることが期待される。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - When Meta-Learning Meets Online and Continual Learning: A Survey [39.53836535326121]
メタ学習は学習アルゴリズムを最適化するためのデータ駆動型アプローチである。
継続的な学習とオンライン学習はどちらも、ストリーミングデータでモデルを漸進的に更新する。
本稿では,一貫した用語と形式記述を用いて,様々な問題設定を整理する。
論文 参考訳(メタデータ) (2023-11-09T09:49:50Z) - Advancing continual lifelong learning in neural information retrieval: definition, dataset, framework, and empirical evaluation [3.2340528215722553]
連続的なニューラル情報検索の系統的なタスク定式化を示す。
包括的連続神経情報検索フレームワークを提案する。
経験的評価は,提案フレームワークが神経情報検索における破滅的な忘れ込みを効果的に防止できることを示唆している。
論文 参考訳(メタデータ) (2023-08-16T14:01:25Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Learning and Retrieval from Prior Data for Skill-based Imitation
Learning [47.59794569496233]
従来のデータから時間的に拡張された感触者スキルを抽出する,スキルベースの模倣学習フレームワークを開発した。
新規タスクの性能を著しく向上させる重要な設計選択をいくつか挙げる。
論文 参考訳(メタデータ) (2022-10-20T17:34:59Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Design of Explainability Module with Experts in the Loop for
Visualization and Dynamic Adjustment of Continual Learning [5.039779583329608]
継続的な学習は、タスク変更シナリオで新しいタスクをシーケンシャルに学習することで、ニューラルネットワークの進化を可能にする。
アプリケーションにおけるデータストリームの新しい特徴は、継続的な学習には意味のない異常を含む可能性がある。
本稿では,次元の縮小,可視化,評価戦略といった手法に基づいて,ループのエキスパートによる説明可能性モジュールの概念設計を提案する。
論文 参考訳(メタデータ) (2022-02-14T15:00:22Z) - CLeaR: An Adaptive Continual Learning Framework for Regression Tasks [2.043835539102076]
破滅的な忘れは、訓練されたニューラルネットワークモデルが、新しいタスクで再訓練されるときに、学習済みのタスクを徐々に忘れることを意味します。
多くの連続学習アルゴリズムは、分類タスクの漸進学習に非常に成功している。
本稿では,目標を予測し,継続学習によって自分自身を更新できる新しい方法論フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-04T12:41:45Z) - Continual Learning for Natural Language Generation in Task-oriented
Dialog Systems [72.92029584113676]
自然言語生成(NLG)はタスク指向対話システムにおいて重要な要素である。
我々は,NLGの知識を新たなドメインや機能に段階的に拡張する"継続的学習"環境で研究する。
この目標に対する大きな課題は、破滅的な忘れことであり、継続的に訓練されたモデルは、以前に学んだ知識を忘れがちである。
論文 参考訳(メタデータ) (2020-10-02T10:32:29Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。