論文の概要: Design of Explainability Module with Experts in the Loop for
Visualization and Dynamic Adjustment of Continual Learning
- arxiv url: http://arxiv.org/abs/2202.06781v1
- Date: Mon, 14 Feb 2022 15:00:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 20:25:29.272794
- Title: Design of Explainability Module with Experts in the Loop for
Visualization and Dynamic Adjustment of Continual Learning
- Title(参考訳): 連続学習の可視化と動的調整のためのループのエキスパートによる説明可能性モジュールの設計
- Authors: Yujiang He, Zhixin Huang and Bernhard Sick
- Abstract要約: 継続的な学習は、タスク変更シナリオで新しいタスクをシーケンシャルに学習することで、ニューラルネットワークの進化を可能にする。
アプリケーションにおけるデータストリームの新しい特徴は、継続的な学習には意味のない異常を含む可能性がある。
本稿では,次元の縮小,可視化,評価戦略といった手法に基づいて,ループのエキスパートによる説明可能性モジュールの概念設計を提案する。
- 参考スコア(独自算出の注目度): 5.039779583329608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning can enable neural networks to evolve by learning new tasks
sequentially in task-changing scenarios. However, two general and related
challenges should be overcome in further research before we apply this
technique to real-world applications. Firstly, newly collected novelties from
the data stream in applications could contain anomalies that are meaningless
for continual learning. Instead of viewing them as a new task for updating, we
have to filter out such anomalies to reduce the disturbance of extremely
high-entropy data for the progression of convergence. Secondly, fewer efforts
have been put into research regarding the explainability of continual learning,
which leads to a lack of transparency and credibility of the updated neural
networks. Elaborated explanations about the process and result of continual
learning can help experts in judgment and making decisions. Therefore, we
propose the conceptual design of an explainability module with experts in the
loop based on techniques, such as dimension reduction, visualization, and
evaluation strategies. This work aims to overcome the mentioned challenges by
sufficiently explaining and visualizing the identified anomalies and the
updated neural network. With the help of this module, experts can be more
confident in decision-making regarding anomaly filtering, dynamic adjustment of
hyperparameters, data backup, etc.
- Abstract(参考訳): 連続学習は、タスク交換シナリオで順次新しいタスクを学習することで、ニューラルネットワークの進化を可能にする。
しかし,本手法を現実の応用に適用する前に,今後の研究で克服すべき課題が2つある。
まず、アプリケーションでデータストリームから新たに収集された新奇性は、継続的な学習には意味のない異常を含む可能性がある。
これらを新しいタスクとして更新する代わりに、収束の進行のために極端に高エントロピーデータの乱れを減らすために、そのような異常を除去する必要がある。
第二に、連続学習の説明可能性に関する研究は少ないため、更新されたニューラルネットワークの透明性と信頼性が欠如している。
継続的学習のプロセスと結果に関する詳細な説明は、専門家の判断と意思決定に役立つ。
そこで本研究では,次元の縮小,可視化,評価戦略といった手法を応用した説明可能性モジュールの概念設計を提案する。
この研究は、特定された異常と更新されたニューラルネットワークを十分に説明し視覚化することで、前述の課題を克服することを目的としている。
このモジュールの助けを借りて、専門家は異常フィルタリング、ハイパーパラメータの動的調整、データバックアップなどに関する意思決定に自信を持つことができる。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Function-space Parameterization of Neural Networks for Sequential Learning [22.095632118886225]
逐次学習パラダイムは、新しいデータの導入と事前知識の維持が困難であるため、勾配に基づくディープラーニングに課題を提起する。
本稿では,ニューラルネットワークを重み空間から関数空間に変換する手法を提案する。
実験により,継続学習における知識を保ち,新しいデータを効率的に活用できることが実証された。
論文 参考訳(メタデータ) (2024-03-16T14:00:04Z) - When Meta-Learning Meets Online and Continual Learning: A Survey [39.53836535326121]
メタ学習は学習アルゴリズムを最適化するためのデータ駆動型アプローチである。
継続的な学習とオンライン学習はどちらも、ストリーミングデータでモデルを漸進的に更新する。
本稿では,一貫した用語と形式記述を用いて,様々な問題設定を整理する。
論文 参考訳(メタデータ) (2023-11-09T09:49:50Z) - Advancing continual lifelong learning in neural information retrieval: definition, dataset, framework, and empirical evaluation [3.2340528215722553]
連続的なニューラル情報検索の系統的なタスク定式化を示す。
包括的連続神経情報検索フレームワークを提案する。
経験的評価は,提案フレームワークが神経情報検索における破滅的な忘れ込みを効果的に防止できることを示唆している。
論文 参考訳(メタデータ) (2023-08-16T14:01:25Z) - Synergistic information supports modality integration and flexible
learning in neural networks solving multiple tasks [107.8565143456161]
本稿では,様々な認知タスクを行う単純な人工ニューラルネットワークが採用する情報処理戦略について検討する。
結果は、ニューラルネットワークが複数の多様なタスクを学習するにつれて、シナジーが増加することを示している。
トレーニング中に無作為にニューロンを停止させると、ネットワークの冗長性が増加し、ロバスト性の増加に対応する。
論文 参考訳(メタデータ) (2022-10-06T15:36:27Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Online Deep Learning from Doubly-Streaming Data [17.119725174036653]
本稿では,データストリームが常に進化する特徴空間によって記述される,二重ストリームデータによる新たなオンライン学習問題について検討する。
この課題を克服するもっともらしいアイデアは、進化する機能空間間の関係を確立することである。
従来の特徴空間と新しい特徴空間から情報を要約するために,共有潜在部分空間が発見された新しいOLD3Sパラダイムを提案する。
論文 参考訳(メタデータ) (2022-04-25T17:06:39Z) - Adaptive Explainable Continual Learning Framework for Regression
Problems with Focus on Power Forecasts [0.0]
この文脈における潜在的な課題を説明するために、2つの連続的な学習シナリオが提案される。
ディープニューラルネットワークは、新しいタスクを学習し、アプリケーションのデータ量が増加し続けるにつれて、古いタスクから得た知識を忘れないようにしなければならない。
研究トピックは関連しているが、連続的なディープラーニングアルゴリズムの開発、データストリームにおける非定常検出戦略、説明可能で可視化可能な人工知能などに限定されていない。
論文 参考訳(メタデータ) (2021-08-24T14:59:10Z) - Causal Navigation by Continuous-time Neural Networks [108.84958284162857]
本研究では,連続時間ニューラルネットワークを用いた因果表現学習のための理論的,実験的枠組みを提案する。
本手法は,ドローンの視覚制御学習の文脈において,一連の複雑なタスクにおいて評価する。
論文 参考訳(メタデータ) (2021-06-15T17:45:32Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。