論文の概要: Large-scale randomized experiment reveals machine learning helps people
learn and remember more effectively
- arxiv url: http://arxiv.org/abs/2010.04430v1
- Date: Fri, 9 Oct 2020 08:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:05:42.674688
- Title: Large-scale randomized experiment reveals machine learning helps people
learn and remember more effectively
- Title(参考訳): 大規模なランダム化実験で機械学習がより効果的に学習し記憶する
- Authors: Utkarsh Upadhyay and Graham Lancashire and Christoph Moser and Manuel
Gomez-Rodriguez
- Abstract要約: 私たちは、人々が現実の素材を学習し記憶する方法を改善するために、機械学習の可能性を明らかにすることに重点を置いています。
我々は,モビリティ分野の人気のある学習アプリから,何千人もの学習者を対象に,大規模ランダム化制御試験を実施している。
- 参考スコア(独自算出の注目度): 14.305363222114543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has typically focused on developing models and algorithms
that would ultimately replace humans at tasks where intelligence is required.
In this work, rather than replacing humans, we focus on unveiling the potential
of machine learning to improve how people learn and remember factual material.
To this end, we perform a large-scale randomized controlled trial with
thousands of learners from a popular learning app in the area of mobility.
After controlling for the length and frequency of study, we find that learners
whose study sessions are optimized using machine learning remember the content
over $\sim$67% longer than those whose study sessions are generated using two
alternative heuristics. Our randomized controlled trial also reveals that the
learners whose study sessions are optimized using machine learning are
$\sim$50% more likely to return to the app within 4-7 days.
- Abstract(参考訳): 機械学習は一般的に、人工知能が必要なタスクで最終的に人間を置き換えるモデルやアルゴリズムの開発に注力している。
この作業では、人間を置き換えるのではなく、人々が事実を学習し記憶する方法を改善するための機械学習の可能性を明らかにすることに重点を置いています。
そこで我々は,モビリティ分野の人気のある学習アプリから,何千人もの学習者が参加して,大規模ランダム化制御試験を行う。
学習の時間と頻度を制御した結果,学習セッションを機械学習を用いて最適化した学習者は,学習セッションを2つの代替ヒューリスティックを用いて生成した学習者よりも67%長くなることがわかった。
ランダム化制御試験では、機械学習を使って学習セッションを最適化した学習者が、4~7日以内にアプリに戻る確率が$sim$50%高いことも分かりました。
関連論文リスト
- SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - How Do Human Users Teach a Continual Learning Robot in Repeated
Interactions? [7.193217430660011]
我々は、人間が長期にわたって連続学習ロボットを教える方法を理解するために、連続学習に人間中心のアプローチをとる。
我々は,200のセッションで連続学習ロボットと対話する40名の参加者を対象に,対人調査を行った。
本研究で収集したデータの質的,定量的な分析により,個々の利用者の指導スタイルに有意な差異があることが示唆された。
論文 参考訳(メタデータ) (2023-06-30T20:29:48Z) - Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning [70.70104870417784]
強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2022-07-11T08:31:22Z) - Classifying Human Activities using Machine Learning and Deep Learning
Techniques [0.0]
HAR(Human Activity Recognition)は、人間の行動を認識する機械。
HARの課題は、与えられたデータに基づいて人間の活動を分離することの難しさを克服することである。
Long Short-Term Memory(LSTM)、Bi-Directional LS分類器、Recurrent Neural Network(RNN)、Gated Recurrent Unit(GRU)といったディープラーニング技術がトレーニングされている。
実験の結果、機械学習における線形サポートベクトルとディープラーニングにおけるGated Recurrent Unitが、人間の活動認識により良い精度を提供することがわかった。
論文 参考訳(メタデータ) (2022-05-19T05:20:04Z) - Ten Quick Tips for Deep Learning in Biology [116.78436313026478]
機械学習は、データのパターンを認識し、予測モデリングに使用するアルゴリズムの開発と応用に関係している。
ディープラーニングは、独自の機械学習のサブフィールドになっている。
生物学的研究の文脈において、ディープラーニングは高次元の生物学的データから新しい洞察を導き出すためにますます使われてきた。
論文 参考訳(メタデータ) (2021-05-29T21:02:44Z) - Intuitiveness in Active Teaching [7.8029610421817654]
我々は,ユーザが積極的に教えるアルゴリズムの直感性を解析する。
我々は人間と機械の相互作用の有効性を判断する体系的な方法を提案する。
論文 参考訳(メタデータ) (2020-12-25T09:31:56Z) - A Study on Efficiency in Continual Learning Inspired by Human Learning [24.78879710005838]
本研究では,人間の学習からインスピレーションを得て,連続学習システムの効率性について検討する。
特に睡眠のメカニズムに触発されて,一般的なプルーニングに基づく連続学習アルゴリズムを評価した。
論文 参考訳(メタデータ) (2020-10-28T19:11:01Z) - Hierarchical Affordance Discovery using Intrinsic Motivation [69.9674326582747]
本研究では,移動ロボットの価格学習を支援するために,本質的なモチベーションを用いたアルゴリズムを提案する。
このアルゴリズムは、事前にプログラムされたアクションなしで、相互に関連のある価格を自律的に発見し、学習し、適応することができる。
一度学習すると、これらの余裕はアルゴリズムによって様々な困難を伴うタスクを実行するために一連のアクションを計画するために使われる。
論文 参考訳(メタデータ) (2020-09-23T07:18:21Z) - Never Stop Learning: The Effectiveness of Fine-Tuning in Robotic
Reinforcement Learning [109.77163932886413]
本稿では,ロボットによるロボット操作ポリシーを,政治以外の強化学習を通じて微調整することで,新たなバリエーションに適応する方法を示す。
この適応は、タスクをゼロから学習するために必要なデータの0.2%未満を使用する。
事前訓練されたポリシーを適用するという私たちのアプローチは、微調整の過程で大きなパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2020-04-21T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。