論文の概要: Empowering Computing Education Researchers Through LLM-Assisted Content Analysis
- arxiv url: http://arxiv.org/abs/2508.18872v1
- Date: Tue, 26 Aug 2025 09:46:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.788048
- Title: Empowering Computing Education Researchers Through LLM-Assisted Content Analysis
- Title(参考訳): LLM支援コンテンツ分析によるコンピュータ教育研究者の育成
- Authors: Laurie Gale, Sebastian Mateos Nicolajsen,
- Abstract要約: 本稿では,大量のテキストデータに対して厳密な分析を行う手法を提案する。
この方法は、コンテンツ分析と大規模言語モデルの利用を組み合わせることで、研究者がより大規模な研究を行うことを可能にする。
我々は、この手法がCERに潜在する可能性があり、より広い範囲の研究からより一般化可能な発見を可能にすると信じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computing education research (CER) is often instigated by practitioners wanting to improve both their own and the wider discipline's teaching practice. However, the latter is often difficult as many researchers lack the colleagues, resources, or capacity to conduct research that is generalisable or rigorous enough to advance the discipline. As a result, research methods that enable sense-making with larger volumes of qualitative data, while not increasing the burden on the researcher, have significant potential within CER. In this discussion paper, we propose such a method for conducting rigorous analysis on large volumes of textual data, namely a variation of LLM-assisted content analysis (LACA). This method combines content analysis with the use of large language models, empowering researchers to conduct larger-scale research which they would otherwise not be able to perform. Using a computing education dataset, we illustrate how LACA could be applied in a reproducible and rigorous manner. We believe this method has potential in CER, enabling more generalisable findings from a wider range of research. This, together with the development of similar methods, can help to advance both the practice and research quality of the CER discipline.
- Abstract(参考訳): コンピュータ教育研究(CER)は、自分自身とより広い分野の教育実践の両方を改善したいと考える実践者によってしばしば着手される。
しかし、後者は多くの場合、多くの研究者が、その規律を前進させるのに十分な一般化または厳格な研究を行うための同僚、資源、能力が欠如しているため、困難である。
その結果, 研究者の負担を増大させることなく, 定性的データ量の多い感覚形成を可能にする研究手法は, CER内で有意な可能性を秘めている。
本稿では,LLM支援コンテンツ分析(LACA)のバリエーションとして,大量のテキストデータに対して厳密な分析を行う手法を提案する。
この手法は、コンテンツ分析と大きな言語モデルの使用を組み合わせることで、研究者が実行できないような大規模な研究を行うことを可能にする。
計算教育データセットを用いて、LACAが再現可能で厳密な方法でどのように適用できるかを説明する。
我々は、この手法がCERに潜在する可能性があり、より広い範囲の研究からより一般化可能な発見を可能にすると信じている。
これは、同様の手法の開発とともに、CER分野の実践と研究の質の両方を前進させるのに役立つ。
関連論文リスト
- Towards Artificial Intelligence Research Assistant for Expert-Involved Learning [64.7438151207189]
大規模言語モデル (LLMs) と大規模多モードモデル (LMMs) は科学研究における変革的ツールとして登場している。
textbfExpert-involved textbfLearning (ARIEL)のためのtextbfARtificial textbfIntelligence Research Assistantを提案する。
論文 参考訳(メタデータ) (2025-05-03T14:21:48Z) - Large Language Model for Qualitative Research -- A Systematic Mapping Study [3.302912592091359]
先進的な生成AIを駆使した大規模言語モデル(LLM)がトランスフォーメーションツールとして登場した。
本研究は, LLMを用いた定性的研究に関する文献を体系的にマッピングする。
LLMは様々な分野にまたがって利用されており、プロセスの自動化の可能性を示している。
論文 参考訳(メタデータ) (2024-11-18T21:28:00Z) - Reconciling Methodological Paradigms: Employing Large Language Models as Novice Qualitative Research Assistants in Talent Management Research [1.0949553365997655]
本研究では,RAGに基づくLarge Language Models (LLMs) を用いた面接文の解析手法を提案する。
この研究の斬新さは、初歩的な研究助手として機能するLSMによって強化された研究調査をストラテジー化することにある。
以上の結果から, LLM拡張RAGアプローチは, 手動で生成したトピックと比較して, 興味のあるトピックを抽出できることが示唆された。
論文 参考訳(メタデータ) (2024-08-20T17:49:51Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - Apprentices to Research Assistants: Advancing Research with Large Language Models [0.0]
大規模言語モデル(LLM)は、様々な研究領域において強力なツールとして登場した。
本稿では,文献レビューと手動実験を通じてその可能性について考察する。
論文 参考訳(メタデータ) (2024-04-09T15:53:06Z) - Ensemble Reinforcement Learning: A Survey [43.17635633600716]
強化学習(Reinforcement Learning, RL)は, 様々な科学的, 応用的な問題に対処するための, 極めて効果的な手法として登場した。
これに対し, アンサンブル強化学習(ERL)は, RLとアンサンブル学習(EL)の両方の利点を組み合わせた有望なアプローチであり, 広く普及している。
ERLは複数のモデルやトレーニングアルゴリズムを活用して、問題空間を包括的に探索し、強力な一般化能力を持つ。
論文 参考訳(メタデータ) (2023-03-05T09:26:44Z) - Research Trends and Applications of Data Augmentation Algorithms [77.34726150561087]
我々は,データ拡張アルゴリズムの適用分野,使用するアルゴリズムの種類,重要な研究動向,時間経過に伴う研究の進展,およびデータ拡張文学における研究ギャップを同定する。
我々は、読者がデータ拡張の可能性を理解し、将来の研究方向を特定し、データ拡張研究の中で質問を開くことを期待する。
論文 参考訳(メタデータ) (2022-07-18T11:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。