論文の概要: Systematic human learning and generalization from a brief tutorial with
explanatory feedback
- arxiv url: http://arxiv.org/abs/2107.06994v2
- Date: Wed, 29 Mar 2023 02:15:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 19:31:11.336263
- Title: Systematic human learning and generalization from a brief tutorial with
explanatory feedback
- Title(参考訳): 説明的フィードバックを伴う簡単なチュートリアルからの体系的人間学習と一般化
- Authors: Andrew J. Nam and James L. McClelland (Stanford University)
- Abstract要約: 本研究では,人間の成体による抽象的推論課題の学習能力について考察する。
課題をマスターする参加者は,少数の試行錯誤で達成し,学習範囲外のパズルによく当てはまる。
また,課題を習得した者の多くは有効な解法戦略を記述でき,その参加者は,戦略記述が曖昧で不完全である者よりも,伝達パズルに優れていた。
- 参考スコア(独自算出の注目度): 3.7826494079172557
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural networks have long been used to model human intelligence, capturing
elements of behavior and cognition, and their neural basis. Recent advancements
in deep learning have enabled neural network models to reach and even surpass
human levels of intelligence in many respects, yet unlike humans, their ability
to learn new tasks quickly remains a challenge. People can reason not only in
familiar domains, but can also rapidly learn to reason through novel problems
and situations, raising the question of how well modern neural network models
capture human intelligence and in which ways they diverge. In this work, we
explore this gap by investigating human adults' ability to learn an abstract
reasoning task based on Sudoku from a brief instructional tutorial with
explanatory feedback for incorrect responses using a narrow range of training
examples. We find that participants who master the task do so within a small
number of trials and generalize well to puzzles outside of the training range.
We also find that most of those who master the task can describe a valid
solution strategy, and such participants perform better on transfer puzzles
than those whose strategy descriptions are vague or incomplete. Interestingly,
fewer than half of our human participants were successful in acquiring a valid
solution strategy, and this ability is associated with high school mathematics
education. We consider the challenges these findings pose for building
computational models that capture all aspects of our findings and point toward
a possible role for learning to engage in explanation-based reasoning to
support rapid learning and generalization.
- Abstract(参考訳): ニューラルネットワークは、人間の知性をモデル化し、行動と認知の要素を捉え、その神経基盤を捉えてきた。
ディープラーニングの最近の進歩により、ニューラルネットワークモデルが多くの点で人間のレベルの知性に到達し、超越することさえ可能になったが、人間とは異なり、新しいタスクを学習する能力はすぐに挑戦的だ。
人々は慣れ親しんだドメインだけでなく、新しい問題や状況を通じて素早く推論を学ぶことができ、現代のニューラルネットワークモデルがいかに人間の知性を捉えるか、どのように分岐するかという疑問を提起する。
そこで本研究では,短い指導指導チュートリアルから,不正確な回答に対する説明的フィードバックを伴い,sudokuに基づく抽象的推論タスクを学習する成人の能力を検討することで,このギャップを探究する。
タスクをマスターする参加者は、少数の試行錯誤を経て、トレーニング範囲外のパズルにうまく一般化することが分かりました。
また,タスクを習得する者の多くは有効な解戦略を記述できるため,戦略記述が曖昧で不完全である者よりも,移行パズルをうまく表現できることがわかった。
興味深いことに、人間の半数未満が有効な解法戦略の獲得に成功しており、この能力は高校数学教育と関連している。
これらの知見は,我々の発見のあらゆる側面を捉えた計算モデルを構築する上での課題を考察し,迅速な学習と一般化を支援するために,説明に基づく推論に学習が関与する可能性のある役割を指摘する。
関連論文リスト
- Improving deep learning with prior knowledge and cognitive models: A
survey on enhancing explainability, adversarial robustness and zero-shot
learning [0.0]
我々は、敵の防御を実現するために、現在および新興の知識インフォームドおよび脳にインスパイアされた認知システムについてレビューする。
脳に触発された認知法は、人間の心を模倣する計算モデルを用いて、人工知能や自律ロボットの知的な行動を強化する。
論文 参考訳(メタデータ) (2024-03-11T18:11:00Z) - Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - Learning to solve arithmetic problems with a virtual abacus [0.35911228556176483]
本稿では,認知エージェントが算術的問題を解くための学習方法をシミュレートする,深層強化学習フレームワークを提案する。
提案モデルでは,複数桁の加算と減算をうまく学習し,誤差率を1%以下に抑えることができた。
最も一般的なエラーパターンを分析して、設計選択による制限とバイアスをよりよく理解します。
論文 参考訳(メタデータ) (2023-01-17T13:25:52Z) - Are Deep Neural Networks SMARTer than Second Graders? [85.60342335636341]
6~8歳児を対象としたビジュオ言語パズルの解法において,ニューラルネットワークの抽象化,推論,一般化能力の評価を行った。
我々のデータセットは101のユニークなパズルで構成されており、各パズルは絵の質問で構成されており、それらの解には算術、代数学、空間推論を含むいくつかの基本的なスキルが混在している必要がある。
実験により、強力なディープモデルは教師付き設定でパズルに合理的な性能を与えるが、一般化のために解析するとランダムな精度よりは良くないことが明らかになった。
論文 参考訳(メタデータ) (2022-12-20T04:33:32Z) - Teachable Reinforcement Learning via Advice Distillation [161.43457947665073]
外部教師が提供した構造化アドバイスから学習する「教育可能な」意思決定システムに基づく対話型学習のための新しい指導パラダイムを提案する。
我々は、アドバイスから学ぶエージェントが、標準的な強化学習アルゴリズムよりも人的監督力の少ない新しいスキルを習得できることを示す。
論文 参考訳(メタデータ) (2022-03-19T03:22:57Z) - Towards continual task learning in artificial neural networks: current
approaches and insights from neuroscience [0.0]
人間や他の動物が、多様で、しばしば干渉し、知識の範囲を学習する能力は、自然知性の目印である。
人工知能がさまざまなタスクやドメインをまたいで学習できることは、人工知能の明確な目標である。
論文 参考訳(メタデータ) (2021-12-28T13:50:51Z) - HALMA: Humanlike Abstraction Learning Meets Affordance in Rapid Problem
Solving [104.79156980475686]
人間は自然主義的タスクの構造に応じて構成的および因果的抽象化、つまり知識を学ぶ。
エージェントがその知識をどのように表現するかには、知覚、概念、アルゴリズムの3段階の一般化がある、と我々は主張する。
このベンチマークは、ビジュアルコンセプト開発と迅速な問題解決のための新しいタスクドメイン、HALMAを中心にしています。
論文 参考訳(メタデータ) (2021-02-22T20:37:01Z) - Thinking Deeply with Recurrence: Generalizing from Easy to Hard
Sequential Reasoning Problems [51.132938969015825]
我々は、リカレントネットワークは、非リカレントディープモデルの振る舞いを詳細にエミュレートする能力を有することを観察する。
再帰ステップの少ない単純な迷路を解くように訓練された再帰ネットワークは、推論中に追加の繰り返しを実行するだけで、より複雑な問題を解決することができる。
論文 参考訳(メタデータ) (2021-02-22T14:09:20Z) - Learning Transferable Concepts in Deep Reinforcement Learning [0.7161783472741748]
感覚入力の離散的な表現を学習することで、複数のタスクに共通するハイレベルな抽象化が得られることを示す。
特に,情報理論のアプローチに従って,自己超越によってそのような表現を学習することは可能であることを示す。
本手法は, 未知タスクと未知タスクの両方において, サンプル効率を高めるための, 機関車および最適制御タスクの概念を学習することができる。
論文 参考訳(メタデータ) (2020-05-16T04:45:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。