論文の概要: Learning to solve arithmetic problems with a virtual abacus
- arxiv url: http://arxiv.org/abs/2301.06870v1
- Date: Tue, 17 Jan 2023 13:25:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 14:11:36.941135
- Title: Learning to solve arithmetic problems with a virtual abacus
- Title(参考訳): 仮想アバカスを用いた算術問題の解法
- Authors: Flavio Petruzzellis, Ling Xuan Chen, Alberto Testolin
- Abstract要約: 本稿では,認知エージェントが算術的問題を解くための学習方法をシミュレートする,深層強化学習フレームワークを提案する。
提案モデルでは,複数桁の加算と減算をうまく学習し,誤差率を1%以下に抑えることができた。
最も一般的なエラーパターンを分析して、設計選択による制限とバイアスをよりよく理解します。
- 参考スコア(独自算出の注目度): 0.35911228556176483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Acquiring mathematical skills is considered a key challenge for modern
Artificial Intelligence systems. Inspired by the way humans discover numerical
knowledge, here we introduce a deep reinforcement learning framework that
allows to simulate how cognitive agents could gradually learn to solve
arithmetic problems by interacting with a virtual abacus. The proposed model
successfully learn to perform multi-digit additions and subtractions, achieving
an error rate below 1% even when operands are much longer than those observed
during training. We also compare the performance of learning agents receiving a
different amount of explicit supervision, and we analyze the most common error
patterns to better understand the limitations and biases resulting from our
design choices.
- Abstract(参考訳): 数学的スキルの獲得は、現代の人工知能システムにとって重要な課題であると考えられている。
本稿では,人間の数値知識の発見方法に触発されて,認知エージェントが仮想アバカスと対話することで,算術問題を徐々に学習する方法をシミュレートする,深層強化学習フレームワークを導入する。
提案モデルでは,複数桁の加算と減算の学習に成功し,訓練中に観測したよりもオペランドが長い場合でも1%未満の誤差率を達成した。
また、学習エージェントのパフォーマンスを異なる量の明示的な監督を受けることで比較し、最も一般的なエラーパターンを分析し、設計選択による制限やバイアスをよりよく理解する。
関連論文リスト
- Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Improving deep learning with prior knowledge and cognitive models: A
survey on enhancing explainability, adversarial robustness and zero-shot
learning [0.0]
我々は、敵の防御を実現するために、現在および新興の知識インフォームドおよび脳にインスパイアされた認知システムについてレビューする。
脳に触発された認知法は、人間の心を模倣する計算モデルを用いて、人工知能や自律ロボットの知的な行動を強化する。
論文 参考訳(メタデータ) (2024-03-11T18:11:00Z) - The Clock and the Pizza: Two Stories in Mechanistic Explanation of
Neural Networks [59.26515696183751]
ニューラルネットワークにおけるアルゴリズム発見は、時としてより複雑であることを示す。
単純な学習問題でさえ、驚くほど多様なソリューションを許容できることが示されています。
論文 参考訳(メタデータ) (2023-06-30T17:59:13Z) - Can neural networks do arithmetic? A survey on the elementary numerical
skills of state-of-the-art deep learning models [0.424243593213882]
深層学習モデルが量と記号数の基本的な理解を持っているかどうかは不明である。
我々は最近の文献を批判的に検証し、基礎的な数値と算術の知識をテストするために設計された比較的単純なタスクによって、最先端のアーキテクチャでさえしばしば不足していると結論付けている。
論文 参考訳(メタデータ) (2023-03-14T09:30:52Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Transformers discover an elementary calculation system exploiting local
attention and grid-like problem representation [0.424243593213882]
局所的な注意と適応的な停止機構を備えたユニバーサルトランスフォーマーは、外部のグリッドライクなメモリを利用してマルチ桁加算を行うことができることを示す。
提案モデルでは, トレーニング分布外の補間を必要とする問題に対して, 実験を行った場合においても, 顕著な精度が得られた。
論文 参考訳(メタデータ) (2022-07-06T09:29:56Z) - Systematic human learning and generalization from a brief tutorial with
explanatory feedback [3.7826494079172557]
本研究では,人間の成体による抽象的推論課題の学習能力について考察する。
課題をマスターする参加者は,少数の試行錯誤で達成し,学習範囲外のパズルによく当てはまる。
また,課題を習得した者の多くは有効な解法戦略を記述でき,その参加者は,戦略記述が曖昧で不完全である者よりも,伝達パズルに優れていた。
論文 参考訳(メタデータ) (2021-07-10T00:14:41Z) - Reset-Free Reinforcement Learning via Multi-Task Learning: Learning
Dexterous Manipulation Behaviors without Human Intervention [67.1936055742498]
マルチタスク学習は、リセットフリーの学習スキームをはるかに複雑な問題に効果的にスケールできることを示す。
この研究は、人間の介入なしにRLを用いて現実世界での巧妙な操作行動を学ぶ能力を示す。
論文 参考訳(メタデータ) (2021-04-22T17:38:27Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z) - Machine Number Sense: A Dataset of Visual Arithmetic Problems for
Abstract and Relational Reasoning [95.18337034090648]
文法モデルを用いて自動生成される視覚的算術問題からなるデータセット、MNS(Machine Number Sense)を提案する。
これらの視覚的算術問題は幾何学的フィギュアの形をしている。
我々は、この視覚的推論タスクのベースラインとして、4つの主要なニューラルネットワークモデルを用いて、MNSデータセットをベンチマークする。
論文 参考訳(メタデータ) (2020-04-25T17:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。