論文の概要: What underlies rapid learning and systematic generalization in humans
- arxiv url: http://arxiv.org/abs/2107.06994v1
- Date: Sat, 10 Jul 2021 00:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-18 12:36:26.736773
- Title: What underlies rapid learning and systematic generalization in humans
- Title(参考訳): 急速学習と体系的一般化の根底にあるもの
- Authors: Andrew Joohun Nam and James L. McClelland (Stanford University)
- Abstract要約: トレーニング例の範囲外における人間の学習力学と一般化能力は,代表的ニューラルネットワークモデルとは大きく異なることを示す。
我々は、パズルを一貫して解く能力が教育と結びついているという、人間のデータからさらに証拠を提示する。
素早い学習と体系的な一般化は,学習から学習までの段階的,経験に依存したプロセスに依存する可能性が示唆された。
- 参考スコア(独自算出の注目度): 1.9659095632676098
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite the groundbreaking successes of neural networks, contemporary models
require extensive training with massive datasets and exhibit poor out-of-sample
generalization. One proposed solution is to build systematicity and
domain-specific constraints into the model, echoing the tenets of classical,
symbolic cognitive architectures. In this paper, we consider the limitations of
this approach by examining human adults' ability to learn an abstract reasoning
task from a brief instructional tutorial and explanatory feedback for incorrect
responses, demonstrating that human learning dynamics and ability to generalize
outside the range of the training examples differ drastically from those of a
representative neural network model, and that the model is brittle to changes
in features not anticipated by its authors. We present further evidence from
human data that the ability to consistently solve the puzzles was associated
with education, particularly basic mathematics education, and with the ability
to provide a reliably identifiable, valid description of the strategy used. We
propose that rapid learning and systematic generalization in humans may depend
on a gradual, experience-dependent process of learning-to-learn using
instructions and explanations to guide the construction of explicit abstract
rules that support generalizable inferences.
- Abstract(参考訳): ニューラルネットワークの画期的な成功にもかかわらず、現代モデルは大量のデータセットによる広範なトレーニングを必要とし、サンプル外一般化の貧弱さを示す。
提案された解決策の1つは、モデルに体系性とドメイン固有の制約を構築することである。
本稿では,このアプローチの限界について,簡単な指導チュートリアルから抽象的推論タスクを学習する成人の能力と,不正確な回答に対する説明的フィードバックを検討することで考察し,トレーニング例の範囲外での人間学習のダイナミクスと一般化能力が,代表的なニューラルネットワークモデルとは大きく異なること,そして,モデルが著者が期待しない特徴の変化に対して脆弱であることを示す。
このパズルを一貫して解く能力は, 教育, 特に基礎数学教育に関連し, 使用戦略の確実に識別可能かつ有効な説明を提供する能力である, という人間データからさらに証拠を提示する。
本研究では,人間における素早い学習と体系的な一般化は,学習から学習までの段階的,経験に依存したプロセスに依存して,一般化可能な推論を支援する明示的な抽象ルールの構築を導くことを提案する。
関連論文リスト
- Improving deep learning with prior knowledge and cognitive models: A
survey on enhancing explainability, adversarial robustness and zero-shot
learning [0.0]
我々は、敵の防御を実現するために、現在および新興の知識インフォームドおよび脳にインスパイアされた認知システムについてレビューする。
脳に触発された認知法は、人間の心を模倣する計算モデルを用いて、人工知能や自律ロボットの知的な行動を強化する。
論文 参考訳(メタデータ) (2024-03-11T18:11:00Z) - Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - Learning to solve arithmetic problems with a virtual abacus [0.35911228556176483]
本稿では,認知エージェントが算術的問題を解くための学習方法をシミュレートする,深層強化学習フレームワークを提案する。
提案モデルでは,複数桁の加算と減算をうまく学習し,誤差率を1%以下に抑えることができた。
最も一般的なエラーパターンを分析して、設計選択による制限とバイアスをよりよく理解します。
論文 参考訳(メタデータ) (2023-01-17T13:25:52Z) - Are Deep Neural Networks SMARTer than Second Graders? [85.60342335636341]
6~8歳児を対象としたビジュオ言語パズルの解法において,ニューラルネットワークの抽象化,推論,一般化能力の評価を行った。
我々のデータセットは101のユニークなパズルで構成されており、各パズルは絵の質問で構成されており、それらの解には算術、代数学、空間推論を含むいくつかの基本的なスキルが混在している必要がある。
実験により、強力なディープモデルは教師付き設定でパズルに合理的な性能を与えるが、一般化のために解析するとランダムな精度よりは良くないことが明らかになった。
論文 参考訳(メタデータ) (2022-12-20T04:33:32Z) - Teachable Reinforcement Learning via Advice Distillation [161.43457947665073]
外部教師が提供した構造化アドバイスから学習する「教育可能な」意思決定システムに基づく対話型学習のための新しい指導パラダイムを提案する。
我々は、アドバイスから学ぶエージェントが、標準的な強化学習アルゴリズムよりも人的監督力の少ない新しいスキルを習得できることを示す。
論文 参考訳(メタデータ) (2022-03-19T03:22:57Z) - Towards continual task learning in artificial neural networks: current
approaches and insights from neuroscience [0.0]
人間や他の動物が、多様で、しばしば干渉し、知識の範囲を学習する能力は、自然知性の目印である。
人工知能がさまざまなタスクやドメインをまたいで学習できることは、人工知能の明確な目標である。
論文 参考訳(メタデータ) (2021-12-28T13:50:51Z) - HALMA: Humanlike Abstraction Learning Meets Affordance in Rapid Problem
Solving [104.79156980475686]
人間は自然主義的タスクの構造に応じて構成的および因果的抽象化、つまり知識を学ぶ。
エージェントがその知識をどのように表現するかには、知覚、概念、アルゴリズムの3段階の一般化がある、と我々は主張する。
このベンチマークは、ビジュアルコンセプト開発と迅速な問題解決のための新しいタスクドメイン、HALMAを中心にしています。
論文 参考訳(メタデータ) (2021-02-22T20:37:01Z) - Thinking Deeply with Recurrence: Generalizing from Easy to Hard
Sequential Reasoning Problems [51.132938969015825]
我々は、リカレントネットワークは、非リカレントディープモデルの振る舞いを詳細にエミュレートする能力を有することを観察する。
再帰ステップの少ない単純な迷路を解くように訓練された再帰ネットワークは、推論中に追加の繰り返しを実行するだけで、より複雑な問題を解決することができる。
論文 参考訳(メタデータ) (2021-02-22T14:09:20Z) - Learning Transferable Concepts in Deep Reinforcement Learning [0.7161783472741748]
感覚入力の離散的な表現を学習することで、複数のタスクに共通するハイレベルな抽象化が得られることを示す。
特に,情報理論のアプローチに従って,自己超越によってそのような表現を学習することは可能であることを示す。
本手法は, 未知タスクと未知タスクの両方において, サンプル効率を高めるための, 機関車および最適制御タスクの概念を学習することができる。
論文 参考訳(メタデータ) (2020-05-16T04:45:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。