論文の概要: Large Language Models for Education and Research: An Empirical and User Survey-based Analysis
- arxiv url: http://arxiv.org/abs/2512.08057v1
- Date: Mon, 08 Dec 2025 21:35:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.730509
- Title: Large Language Models for Education and Research: An Empirical and User Survey-based Analysis
- Title(参考訳): 教育・研究のための大規模言語モデル:実証的およびユーザ調査に基づく分析
- Authors: Md Mostafizer Rahman, Ariful Islam Shiplu, Md Faizul Ibne Amin, Yutaka Watanobe, Lu Peng,
- Abstract要約: ChatGPTとDeepSeekは数学、科学、医学、文学、プログラミングにおいて強力な能力を示している。
テキスト生成、プログラミング、特殊問題解決において、これらのLLMのパフォーマンスをベンチマークした。
どちらのモデルも医学的に正確な診断出力を提供し、複雑な数学的問題を効果的に解決する。
- 参考スコア(独自算出の注目度): 0.7077668691277661
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pretrained Large Language Models (LLMs) have achieved remarkable success across diverse domains, with education and research emerging as particularly impactful areas. Among current state-of-the-art LLMs, ChatGPT and DeepSeek exhibit strong capabilities in mathematics, science, medicine, literature, and programming. In this study, we present a comprehensive evaluation of these two LLMs through background technology analysis, empirical experiments, and a real-world user survey. The evaluation explores trade-offs among model accuracy, computational efficiency, and user experience in educational and research affairs. We benchmarked these LLMs performance in text generation, programming, and specialized problem-solving. Experimental results show that ChatGPT excels in general language understanding and text generation, while DeepSeek demonstrates superior performance in programming tasks due to its efficiency- focused design. Moreover, both models deliver medically accurate diagnostic outputs and effectively solve complex mathematical problems. Complementing these quantitative findings, a survey of students, educators, and researchers highlights the practical benefits and limitations of these models, offering deeper insights into their role in advancing education and research.
- Abstract(参考訳): 事前訓練された大規模言語モデル(LLM)は、様々な領域で顕著な成功を収めており、特に影響力のある分野として教育と研究が出現している。
現在最先端のLLMの中で、ChatGPTとDeepSeekは数学、科学、医学、文学、プログラミングに強力な能力を示している。
本研究では,背景技術分析,実証実験,実世界のユーザ調査を通じて,これらの2つのLCMの総合的な評価を行う。
本評価では, モデル精度, 計算効率, ユーザエクスペリエンスのトレードオフについて検討する。
テキスト生成、プログラミング、特殊問題解決において、これらのLLMのパフォーマンスをベンチマークした。
実験の結果,ChatGPTは汎用言語理解とテキスト生成に優れており,DeepSeekは効率を重視した設計により,プログラミングタスクにおける優れた性能を示している。
さらに、どちらのモデルも医学的に正確な診断出力を提供し、複雑な数学的問題を効果的に解決する。
これらの定量的発見を補完し、学生、教育者、研究者による調査は、これらのモデルの実用的メリットと限界を強調し、教育と研究の進展における彼らの役割について深い洞察を提供する。
関連論文リスト
- Advancing AI Research Assistants with Expert-Involved Learning [84.30323604785646]
大規模言語モデル (LLM) と大規模マルチモーダルモデル (LMM) は、生物医学的な発見を促進することを約束するが、その信頼性は未定である。
ARIEL(AI Research Assistant for Expert-in-the-Loop Learning)は,オープンソースの評価・最適化フレームワークである。
LMMは詳細な視覚的推論に苦しむのに対し、最先端のモデルでは流動性はあるが不完全な要約を生成する。
論文 参考訳(メタデータ) (2025-05-03T14:21:48Z) - Applications and Implications of Large Language Models in Qualitative Analysis: A New Frontier for Empirical Software Engineering [0.46426852157920906]
この研究は、ソフトウェア工学における質的研究におけるLCMの使用を最適化するための構造化戦略とガイドラインの必要性を強調している。
LLMは質的な分析をサポートすることを約束していますが、データの解釈には人間の専門知識が不可欠です。
論文 参考訳(メタデータ) (2024-12-09T15:17:36Z) - What is the Role of Large Language Models in the Evolution of Astronomy Research? [0.0]
ChatGPTや他の最先端の大規模言語モデル(LLM)は、急速に複数のフィールドを変換している。
これらのモデルは、一般に広大なデータセットに基づいて訓練され、人間のようなテキスト生成能力を示す。
論文 参考訳(メタデータ) (2024-09-30T12:42:25Z) - Towards Coarse-to-Fine Evaluation of Inference Efficiency for Large Language Models [95.96734086126469]
大規模言語モデル(LLM)は、ユーザが仕事を達成するのを助けるアシスタントとして機能し、高度なアプリケーションの開発をサポートする。
LLMの幅広い応用にとって、推論効率は重要な問題であり、既存の研究で広く研究されている。
各種コードライブラリの推論性能の粗大な解析を行う。
論文 参考訳(メタデータ) (2024-04-17T15:57:50Z) - Apprentices to Research Assistants: Advancing Research with Large Language Models [0.0]
大規模言語モデル(LLM)は、様々な研究領域において強力なツールとして登場した。
本稿では,文献レビューと手動実験を通じてその可能性について考察する。
論文 参考訳(メタデータ) (2024-04-09T15:53:06Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - SciBench: Evaluating College-Level Scientific Problem-Solving Abilities of Large Language Models [70.5763210869525]
拡張ベンチマークスイートSciBench for Large Language Model (LLM)を導入する。
SciBenchには、数学、化学、物理学の分野から、さまざまな大学レベルの科学的問題を含むデータセットが含まれている。
その結果、現在のLLMは満足のいく性能を達成できないことが判明し、全体のスコアは43.22%に過ぎなかった。
論文 参考訳(メタデータ) (2023-07-20T07:01:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。