論文の概要: Reviewing continual learning from the perspective of human-level
intelligence
- arxiv url: http://arxiv.org/abs/2111.11964v1
- Date: Tue, 23 Nov 2021 15:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 19:02:14.517683
- Title: Reviewing continual learning from the perspective of human-level
intelligence
- Title(参考訳): 人間レベルの知性の観点からの連続学習のレビュー
- Authors: Yifan Chang, Wenbo Li, Jian Peng, Bo Tang, Yu Kang, Yinjie Lei,
Yuanmiao Gui, Qing Zhu, Yu Liu, Haifeng Li
- Abstract要約: 人間の連続学習能力は、安定性のVersus Plasticity Dilemmaと密接に関連している。
CLの概念は、その誕生以来、人工知能(AI)において常に存在してきた。
- 参考スコア(独自算出の注目度): 32.55781686706362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans' continual learning (CL) ability is closely related to Stability
Versus Plasticity Dilemma that describes how humans achieve ongoing learning
capacity and preservation for learned information. The notion of CL has always
been present in artificial intelligence (AI) since its births. This paper
proposes a comprehensive review of CL. Different from previous reviews that
mainly focus on the catastrophic forgetting phenomenon in CL, this paper
surveys CL from a more macroscopic perspective based on the Stability Versus
Plasticity mechanism. Analogous to biological counterpart, "smart" AI agents
are supposed to i) remember previously learned information (information
retrospection); ii) infer on new information continuously (information
prospection:); iii) transfer useful information (information transfer), to
achieve high-level CL. According to the taxonomy, evaluation metrics,
algorithms, applications as well as some open issues are then introduced. Our
main contributions concern i) rechecking CL from the level of artificial
general intelligence; ii) providing a detailed and extensive overview on CL
topics; iii) presenting some novel ideas on the potential development of CL.
- Abstract(参考訳): 人間の継続学習能力(CL)は、人間が学習情報の継続的な学習能力と保存をいかに達成するかを記述する安定性のVersus Plasticity Dilemmaと密接に関連している。
CLの概念は、その誕生以来常に人工知能(AI)に存在している。
本稿ではCLの総合的なレビューを提案する。
CLの破滅的忘れ現象に主に焦点をあてた以前のレビューとは違って,本研究では,安定性のVersus Plasticity機構に基づくよりマクロな視点からCLを調査した。
生物学的に見れば「スマート」なAIエージェントは
一 予め学習した情報(情報振り返り)を記憶すること。
二 新しい情報を継続的に推測すること(情報見通し:)
三 高レベルなclを達成するために有用な情報(情報伝達)を転送すること。
分類学によると、評価指標、アルゴリズム、アプリケーション、そしていくつかのオープンな問題が導入される。
私たちの主な貢献は
一 人工知能のレベルからclを再確認すること。
ii) clトピックに関する詳細かつ広範な概要を提供する。
三 CLの潜在的な発展に関する新しい考えを提示すること。
関連論文リスト
- CLEO: Continual Learning of Evolving Ontologies [12.18795037817058]
継続的な学習(CL)は、知的システムに人間の生涯学習を浸透させることを目的としている。
一般的な学習プロセスは、学習情報だけでなく、既存の情報の洗練にも限界がある。
CLEOは、時間とともに現実の変化に適応するインテリジェントなシステムの必要性によって動機付けられている。
論文 参考訳(メタデータ) (2024-07-11T11:32:33Z) - What Makes CLIP More Robust to Long-Tailed Pre-Training Data? A Controlled Study for Transferable Insights [67.72413262980272]
大規模なデータ不均衡は、Webスケールの視覚言語データセットの間に自然に存在する。
事前学習したCLIPは、教師付き学習と比較してデータ不均衡に顕著な堅牢性を示す。
CLIPの堅牢性と差別性は、より記述的な言語監督、より大きなデータスケール、より広いオープンワールドの概念によって改善される。
論文 参考訳(メタデータ) (2024-05-31T17:57:24Z) - InfoCL: Alleviating Catastrophic Forgetting in Continual Text
Classification from An Information Theoretic Perspective [44.961805748830066]
我々は,クラスインクリメンタルな設定の下での連続的なテキスト分類に焦点をあてる。
近年の研究では、類似クラスの性能低下を忘れる重要な要因として挙げている。
本稿では,リプレイに基づく連続テキスト分類手法InfoCLを提案する。
論文 参考訳(メタデータ) (2023-10-10T07:00:13Z) - Continual Learning of Natural Language Processing Tasks: A Survey [19.126212040944022]
継続学習(英: Continual Learning, CL)とは、学習した知識を忘れることなく、学習と知識の蓄積の人間的能力をエミュレートする学習パラダイムである。
本調査は,コンピュータビジョンと機械学習におけるCLとの大きな違いがあるNLPにおけるCLの最近の進歩に関する総合的なレビューと分析を行う。
論文 参考訳(メタデータ) (2022-11-23T04:46:28Z) - Beyond Supervised Continual Learning: a Review [69.9674326582747]
連続学習(Continuous Learning, CL)は、定常データ分布の通常の仮定を緩和または省略する機械学習のフレーバーである。
データ分布の変化は、いわゆる破滅的な忘れ(CF)効果、すなわち、過去の知識の突然の喪失を引き起こす可能性がある。
本稿では、CLを他の環境で研究する文献をレビューする。例えば、監督を減らした学習、完全に教師なしの学習、強化学習などである。
論文 参考訳(メタデータ) (2022-08-30T14:44:41Z) - From Psychological Curiosity to Artificial Curiosity: Curiosity-Driven
Learning in Artificial Intelligence Tasks [56.20123080771364]
心理学的好奇心は、探索と情報取得を通じて学習を強化するために、人間の知性において重要な役割を果たす。
人工知能(AI)コミュニティでは、人工好奇心は効率的な学習に自然な本質的な動機を与える。
CDLはますます人気を博し、エージェントは新たな知識を学習するために自己動機付けされている。
論文 参考訳(メタデータ) (2022-01-20T17:07:03Z) - Continual Lifelong Learning in Natural Language Processing: A Survey [3.9103337761169943]
連続学習(continual learning, cl)は,情報システムが時間を越えた連続的なデータストリームから学ぶことを可能にする。
既存のディープラーニングアーキテクチャでは、以前獲得した知識をほとんど忘れずに新しいタスクを学習することは困難である。
我々は様々なnlpタスクのレンズを通してclの問題を検討する。
論文 参考訳(メタデータ) (2020-12-17T18:44:36Z) - A Survey on Curriculum Learning [48.36129047271622]
Curriculum Learning(CL)は、より簡単なデータからより難しいデータまで、マシンラーニングモデルをトレーニングするトレーニング戦略である。
CL戦略は、使い易いプラグインとして、様々なモデルの一般化能力と収束率を改善する能力を示した。
論文 参考訳(メタデータ) (2020-10-25T17:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。