論文の概要: Automated Grading of Students' Handwritten Graphs: A Comparison of Meta-Learning and Vision-Large Language Models
- arxiv url: http://arxiv.org/abs/2507.03056v1
- Date: Thu, 03 Jul 2025 13:25:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.565648
- Title: Automated Grading of Students' Handwritten Graphs: A Comparison of Meta-Learning and Vision-Large Language Models
- Title(参考訳): 学生の手書きグラフの自動グラフ化:メタラーニングとビジョンラージ言語モデルの比較
- Authors: Behnam Parsaeifard, Martin Hlosta, Per Bergamin,
- Abstract要約: 学生の手書きグラフとテキストを含む画像の自動分解のためのマルチモーダルメタラーニングモデルを実装した。
視覚大言語モデル(VLLM)の性能と、これらの特別に訓練されたメタラーニングモデルとの比較を行った。
我々の施設から収集した実世界のデータセットを用いて評価した結果、最も優れたメタラーニングモデルはVLLMを2方向の分類タスクで上回っていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rise of online learning, the demand for efficient and consistent assessment in mathematics has significantly increased over the past decade. Machine Learning (ML), particularly Natural Language Processing (NLP), has been widely used for autograding student responses, particularly those involving text and/or mathematical expressions. However, there has been limited research on autograding responses involving students' handwritten graphs, despite their prevalence in Science, Technology, Engineering, and Mathematics (STEM) curricula. In this study, we implement multimodal meta-learning models for autograding images containing students' handwritten graphs and text. We further compare the performance of Vision Large Language Models (VLLMs) with these specially trained metalearning models. Our results, evaluated on a real-world dataset collected from our institution, show that the best-performing meta-learning models outperform VLLMs in 2-way classification tasks. In contrast, in more complex 3-way classification tasks, the best-performing VLLMs slightly outperform the meta-learning models. While VLLMs show promising results, their reliability and practical applicability remain uncertain and require further investigation.
- Abstract(参考訳): オンライン学習の台頭に伴い、数学における効率的で一貫した評価の需要は、過去10年間で著しく増加した。
機械学習(ML)、特に自然言語処理(NLP)は、特にテキストや数学的表現を含む学生の反応の自動化に広く用いられている。
しかし,STEM(Science, Technology, Engineering, and Mathematics)カリキュラムが普及しているにもかかわらず,学生の手書きグラフによる自動階調応答の研究は限られている。
本研究では,学生の手書きグラフとテキストを含む画像の自動分解のためのマルチモーダルメタラーニングモデルを実装した。
さらに、視覚大言語モデル(VLLM)の性能と、これらの特別に訓練されたメタラーニングモデルを比較した。
我々の施設から収集した実世界のデータセットを用いて評価した結果、最も優れたメタラーニングモデルはVLLMを2方向の分類タスクで上回っていることがわかった。
対照的に、より複雑な3方向分類タスクでは、最高のパフォーマンスのVLLMはメタラーニングモデルよりも若干優れています。
VLLMは有望な結果を示すが、信頼性と実用性はまだ不明であり、さらなる調査が必要である。
関連論文リスト
- Knowledge Distillation for Enhancing Walmart E-commerce Search Relevance Using Large Language Models [6.324684465674387]
大規模言語モデル(LLM)は優れたランキング機能を提供しますが、高レイテンシ要求のため、リアルタイムシステムにデプロイすることは困難です。
高性能LLMをより効率的で低レイテンシの学生モデルに蒸留する新しいフレームワークを提案する。
学生モデルは、非常に肯定的な指標でWalmart.comで生産に成功している。
論文 参考訳(メタデータ) (2025-05-11T20:00:00Z) - Quality-Driven Curation of Remote Sensing Vision-Language Data via Learned Scoring Models [9.238739743596236]
自動品質評価のための大規模RS視覚言語嗜好データに基づいて学習した新しいスコアモデルを提案する。
実験結果から, スコアモデルでランク付けされたデータのうち, 上位30%の高精度なCLIPや高度なVLMが, より優れた解釈精度を実現することが示された。
論文 参考訳(メタデータ) (2025-03-02T05:44:56Z) - How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - Interactive DualChecker for Mitigating Hallucinations in Distilling Large Language Models [7.632217365130212]
大規模言語モデル(LLM)は、さまざまな機械学習(ML)タスクにまたがる例外的な機能を示している。
これらのモデルは、特に不完全な知識を持つ領域において幻覚を生み出すことができる。
幻覚を緩和し,教師モデルと学生モデルの両方のパフォーマンスを向上させるために設計された,革新的なフレームワークであるDualCheckerを紹介する。
論文 参考訳(メタデータ) (2024-08-22T12:04:04Z) - MMSci: A Dataset for Graduate-Level Multi-Discipline Multimodal Scientific Understanding [59.41495657570397]
本稿では,72の科学分野をカバーするNature Communicationsの記事からまとめられた包括的データセットについて述べる。
2つのベンチマークタスク(図のキャプションと複数選択)で19のプロプライエタリモデルとオープンソースモデルを評価し,人手による注釈を行った。
タスク固有データを用いた細調整Qwen2-VL-7Bは、GPT-4oや人間の専門家でさえも、マルチチョイス評価において優れた性能を示した。
論文 参考訳(メタデータ) (2024-07-06T00:40:53Z) - Efficient End-to-end Language Model Fine-tuning on Graphs [21.23522552579571]
Text-Attributed Graphs (TAGs) からの学習は、その幅広い現実世界のアプリケーションのために大きな注目を集めている。
我々は,TAG上での言語モデルのエンドツーエンドな微調整のための,新規かつ効率的なアプローチであるLEAdingを紹介する。
提案手法は,Ogbn-arxiv のリーダーボード上で,最先端のSOTA(State-of-the-art)を達成し,優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-07T22:35:16Z) - Large Language Models for In-Context Student Modeling: Synthesizing Student's Behavior in Visual Programming [29.65988680948297]
本研究では,大規模言語モデル(LLM)のオープンエンド学習領域におけるコンテキスト内学習モデルへの応用について検討する。
学生の行動に LLM を利用する新しいフレームワーク LLM for Student Synthesis (LLM-SS) を導入する。
LLM-SSフレームワークに基づいて複数の手法をインスタンス化し、既存のベンチマークであるStudioSynを用いて視覚的プログラミング領域における学生の試行合成を行う。
論文 参考訳(メタデータ) (2023-10-15T12:56:13Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。