論文の概要: Machine Learning Students Overfit to Overfitting
- arxiv url: http://arxiv.org/abs/2209.03032v1
- Date: Wed, 7 Sep 2022 09:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 13:13:37.285142
- Title: Machine Learning Students Overfit to Overfitting
- Title(参考訳): 機械学習の学生は過度に適合する
- Authors: Matias Valdenegro-Toro, Matthia Sabatelli
- Abstract要約: オーバーフィッティングと一般化は機械学習において重要な概念である。
しかし、一部の学生は講義や演習を通じてこの重要な概念を学ぶのに苦労している。
本稿では,学生の過度に適合する誤解の一般的な例を解説し,解決の可能性について提言する。
- 参考スコア(独自算出の注目度): 8.37609145576126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Overfitting and generalization is an important concept in Machine Learning as
only models that generalize are interesting for general applications. Yet some
students have trouble learning this important concept through lectures and
exercises. In this paper we describe common examples of students
misunderstanding overfitting, and provide recommendations for possible
solutions. We cover student misconceptions about overfitting, about solutions
to overfitting, and implementation mistakes that are commonly confused with
overfitting issues. We expect that our paper can contribute to improving
student understanding and lectures about this important topic.
- Abstract(参考訳): オーバーフィッティング(overfitting)と一般化(generalization)は、マシンラーニングにおいて重要な概念である。
しかし、一部の学生は講義や演習を通じてこの重要な概念を学ぶのに苦労している。
本稿では,学生の過度な誤解の一般的な例を説明し,可能な解決策の提案を行う。
オーバーフィッティングに関する学生の誤解、オーバーフィッティングに対する解決策、オーバーフィッティング問題とよく混同される実装ミスについて取り上げています。
本論文は,この課題に対する学生の理解と講義の改善に寄与することを期待する。
関連論文リスト
- Exploring Error Types in Formal Languages Among Students of Upper Secondary Education [0.0]
高校生の形式言語における誤りの探索的研究について報告する。
その結果,概念の非機能的理解の事例が示唆された。
これらの発見は、学生がなぜこの話題に苦しむのか、より広い理解の出発点となる。
論文 参考訳(メタデータ) (2024-09-23T14:16:13Z) - Stepwise Verification and Remediation of Student Reasoning Errors with Large Language Model Tutors [78.53699244846285]
大規模言語モデル(LLM)は、高品質なパーソナライズされた教育を全員に拡大する機会を提供する。
LLMは、学生のエラーを正確に検知し、これらのエラーに対するフィードバックを調整するのに苦労する。
教師が学生の誤りを識別し、それに基づいて回答をカスタマイズする現実世界の教育実践に触発され、我々は学生ソリューションの検証に焦点をあてる。
論文 参考訳(メタデータ) (2024-07-12T10:11:40Z) - Understanding What Affects the Generalization Gap in Visual Reinforcement Learning: Theory and Empirical Evidence [53.51724434972605]
本稿では,テスト環境に障害がある場合の一般化ギャップに寄与する要因について理論的に考察する。
我々の理論は、人間の直観に沿う訓練環境とテスト環境の表現距離を最小化することが、一般化のギャップを減らすことの利点として最も重要であることを示唆している。
論文 参考訳(メタデータ) (2024-02-05T03:27:52Z) - CHAMP: A Competition-level Dataset for Fine-Grained Analyses of LLMs' Mathematical Reasoning Capabilities [25.857946070979576]
概念とHint-Annotated Math Problems (CHAMP) は、概念に注釈を付けた高校数学の競争問題である。
このベンチマークは困難で、最高のモデルは標準設定で58.1%しか得点できない。
モデルはしばしば、間違った推論ステップを通じて、正しい最終回答に到達します。
論文 参考訳(メタデータ) (2024-01-13T03:18:16Z) - EduGym: An Environment and Notebook Suite for Reinforcement Learning
Education [1.5299029730280802]
EduGymは、教育強化学習環境と関連する対話型ノートブックのセットである。
それぞれのEduGym環境は、強化学習の特定の側面/側面を示すように設計されている。
RL学生と研究者の86%が、EduGymは強化学習教育に有用なツールだと考えている。
論文 参考訳(メタデータ) (2023-11-17T15:45:00Z) - Towards a Holistic Understanding of Mathematical Questions with
Contrastive Pre-training [65.10741459705739]
本稿では,数学的問題表現,すなわち QuesCo に対する対照的な事前学習手法を提案する。
まず、コンテンツレベルと構造レベルを含む2段階の質問強化を設計し、類似した目的で文字通り多様な質問ペアを生成する。
そこで我々は,知識概念の階層的情報を完全に活用するために,知識階層を意識したランク戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T14:23:29Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Probably Approximately Correct Constrained Learning [135.48447120228658]
我々は、ほぼ正しい学習フレームワーク(PAC)に基づく一般化理論を開発する。
PAC学習可能なクラスも制約のある学習者であるという意味では,学習者の導入は学習問題を難しくするものではないことを示す。
このソリューションの特性を分析し,制約付き学習が公平でロバストな分類における問題にどのように対処できるかを説明する。
論文 参考訳(メタデータ) (2020-06-09T19:59:29Z) - Generalization in Deep Learning [103.91623583928852]
本稿では,その容量,複雑性,アルゴリズムの不安定性,非破壊性,およびシャープなミニマにもかかわらず,ディープラーニングがなぜ,どのように一般化できるかに関する理論的知見を提供する。
また、ディープラーニングのための非空でない一般化保証を提供するためのアプローチについても論じる。
論文 参考訳(メタデータ) (2017-10-16T02:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。