論文の概要: Using Adaptive Experiments to Rapidly Help Students
- arxiv url: http://arxiv.org/abs/2208.05092v1
- Date: Wed, 10 Aug 2022 00:43:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 13:22:21.956818
- Title: Using Adaptive Experiments to Rapidly Help Students
- Title(参考訳): 適応実験による学生支援の迅速化
- Authors: Angela Zavaleta-Bernuy, Qi Yin Zheng, Hammad Shaikh, Jacob Nogas, Anna
Rafferty, Andrew Petersen, Joseph Jay Williams
- Abstract要約: 我々は、トンプソンサンプリングアルゴリズムを用いて適応実験を行うことで、学生の宿題メールリマインダーの効果を評価する。
適応的ランダム化実験が多かれ少なかれ有用であるような条件について、様々なオープンな疑問を提起する。
- 参考スコア(独自算出の注目度): 5.446351709118483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adaptive experiments can increase the chance that current students obtain
better outcomes from a field experiment of an instructional intervention. In
such experiments, the probability of assigning students to conditions changes
while more data is being collected, so students can be assigned to
interventions that are likely to perform better. Digital educational
environments lower the barrier to conducting such adaptive experiments, but
they are rarely applied in education. One reason might be that researchers have
access to few real-world case studies that illustrate the advantages and
disadvantages of these experiments in a specific context. We evaluate the
effect of homework email reminders in students by conducting an adaptive
experiment using the Thompson Sampling algorithm and compare it to a
traditional uniform random experiment. We present this as a case study on how
to conduct such experiments, and we raise a range of open questions about the
conditions under which adaptive randomized experiments may be more or less
useful.
- Abstract(参考訳): 適応実験は、現在の学生が指導的介入のフィールド実験からより良い結果を得る機会を高めることができる。
このような実験では、より多くのデータが収集されている間に学生を条件に割り当てる確率が変化し、学生はより良いパフォーマンスを示すであろう介入に割り当てることができる。
デジタル教育環境はこのような適応実験を行うための障壁を低くするが、それらは教育にはほとんど適用されない。
一つの理由は、研究者が特定の文脈でこれらの実験の利点とデメリットを示す実世界のケーススタディにほとんどアクセスできないからかもしれない。
学生における宿題メールリマインダーの効果を,トンプソンサンプリングアルゴリズムを用いた適応実験により評価し,従来の一様ランダム実験と比較した。
このような実験の実施方法に関するケーススタディとして,適応的ランダム化実験が多かれ少なかれ有用である可能性のある条件について,さまざまなオープンな疑問を提起する。
関連論文リスト
- Adaptive Experimentation When You Can't Experiment [55.86593195947978]
本稿では,Emphcon founded the pure exploration transductive linear bandit (textttCPET-LB) problem。
オンラインサービスは、ユーザーを特定の治療にインセンティブを与える、適切にランダム化された励ましを利用することができる。
論文 参考訳(メタデータ) (2024-06-15T20:54:48Z) - Optimizing Adaptive Experiments: A Unified Approach to Regret Minimization and Best-Arm Identification [9.030753181146176]
実験内性能と実験後の成果を同時に考慮した統一モデルを提案する。
実験期間の大幅な短縮は、実験内および実験後の後悔の両方に最小限の影響を伴って達成できることが示されている。
論文 参考訳(メタデータ) (2024-02-16T11:27:48Z) - Adaptive Instrument Design for Indirect Experiments [48.815194906471405]
RCTとは異なり、間接的な実験は条件付き機器変数を利用して治療効果を推定する。
本稿では,データ収集ポリシーを適応的に設計することで,間接実験におけるサンプル効率の向上に向けた最初のステップについて述べる。
我々の主な貢献は、影響関数を利用して最適なデータ収集ポリシーを探索する実用的な計算手順である。
論文 参考訳(メタデータ) (2023-12-05T02:38:04Z) - Opportunities for Adaptive Experiments to Enable Continuous Improvement in Computer Science Education [7.50867730317249]
適応実験では、異なる条件が学生に展開されるにつれて、データを分析・活用する。
これらのアルゴリズムは、その後の学生との相互作用において最も効果的な条件を動的に展開することができる。
本研究は, ブリッジング研究における適応実験の重要性を探求し, 継続的な改善を実現するための方法である。
論文 参考訳(メタデータ) (2023-10-18T20:54:59Z) - Optimal tests following sequential experiments [0.0]
本研究の目的は, それらの特性を解析することにより, 逐次実験のための最適試験の開発を支援することである。
我々の重要な発見は、任意のテストのパワー関数が極限実験でテストによって一致できることである。
この結果は、強力な充足結果を含む重要な意味を持つ。
論文 参考訳(メタデータ) (2023-04-30T06:09:49Z) - GFlowNets for AI-Driven Scientific Discovery [74.27219800878304]
我々はGFlowNetsと呼ばれる新しい確率論的機械学習フレームワークを提案する。
GFlowNetsは、実験科学ループのモデリング、仮説生成、実験的な設計段階に適用できる。
我々は、GFlowNetsがAIによる科学的発見の貴重なツールになり得ると論じている。
論文 参考訳(メタデータ) (2023-02-01T17:29:43Z) - PyExperimenter: Easily distribute experiments and track results [63.871474825689134]
PyExperimenterは、アルゴリズムの実験的な研究結果のセットアップ、ドキュメンテーション、実行、およびその後の評価を容易にするツールである。
人工知能の分野で研究者が使用することを意図しているが、それらに限定されていない。
論文 参考訳(メタデータ) (2023-01-16T10:43:02Z) - Assign Experiment Variants at Scale in Online Controlled Experiments [1.9205538784019935]
オンライン制御実験(A/Bテスト)は、テクノロジー企業における新製品機能の影響を学ぶための金の標準となっている。
テクノロジー企業は大規模にA/Bテストを実行します -- 数千、あるいは数千のA/Bテストを同時に実行します。
ランダムな代入を検証するための新しい代入アルゴリズムと統計的試験を提案する。
論文 参考訳(メタデータ) (2022-12-17T00:45:12Z) - Fair Effect Attribution in Parallel Online Experiments [57.13281584606437]
A/Bテストは、オンラインサービスで導入された変更の影響を確実に特定する目的で役立ちます。
オンラインプラットフォームでは,ユーザトラフィックをランダムに分割して多数の同時実験を行うのが一般的である。
異なるグループ間の完全なランダム化にもかかわらず、同時実験は互いに相互作用し、平均的な集団の結果に負の影響をもたらす。
論文 参考訳(メタデータ) (2022-10-15T17:15:51Z) - Increasing Students' Engagement to Reminder Emails Through Multi-Armed
Bandits [60.4933541247257]
本稿では,学生が週毎のメールリマインダーとどのように関わり,時間管理の習慣を構築するかについて,実世界の適応実験を行った。
適応実験にマルチアーマド・バンド(MAB)アルゴリズムを用いると、より良い結果が得られる可能性が高まる。
我々は、これらの適応アルゴリズムの問題点を強調します。例えば、大きな違いがない場合の腕の活用などです。
論文 参考訳(メタデータ) (2022-08-10T00:30:52Z) - Challenges in Statistical Analysis of Data Collected by a Bandit
Algorithm: An Empirical Exploration in Applications to Adaptively Randomized
Experiments [11.464963616709671]
多腕バンディットアルゴリズムは、適応的ランダム化実験に有用であると何十年も議論されてきた。
バンディットアルゴリズムThompson Sampling (TS) を用いて, 3つの大学で適応実験を行った。
TSを用いたデータ収集はFalse Positive Rate(FPR)とFalse Negative Rate(FNR)を2倍にすることができることを示す。
論文 参考訳(メタデータ) (2021-03-22T22:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。