論文の概要: I don't trust you (anymore)! -- The effect of students' LLM use on Lecturer-Student-Trust in Higher Education
- arxiv url: http://arxiv.org/abs/2406.14871v2
- Date: Tue, 18 Feb 2025 10:39:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:04:57.462103
- Title: I don't trust you (anymore)! -- The effect of students' LLM use on Lecturer-Student-Trust in Higher Education
- Title(参考訳): 生徒のLLM使用が高等教育における講師・学生・トラストに及ぼす影響
- Authors: Simon Kloker, Matthew Bazanya, Twaha Kateete,
- Abstract要約: Open AIのChatGPTのようなプラットフォームにおける大規模言語モデル(LLM)は、大学生の間で急速に採用されている。
学生によるLLMの使用は、情報と手続きの正義にどのように影響し、チーム信頼と期待されるチームパフォーマンスに影響を与えるか?
本研究は,LLM使用の公平さよりも,学生利用の透明性に重点を置いていることを示唆する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Trust plays a pivotal role in Lecturer-Student-Collaboration, encompassing teaching and research aspects. The advent of Large Language Models (LLMs) in platforms like Open AI's ChatGPT, coupled with their cost-effectiveness and high-quality results, has led to their rapid adoption among university students. However, discerning genuine student input from LLM-generated output poses a challenge for lecturers. This dilemma jeopardizes the trust relationship between lecturers and students, potentially impacting university downstream activities, particularly collaborative research initiatives. Despite attempts to establish guidelines for student LLM use, a clear framework mutually beneficial for lecturers and students in higher education remains elusive. This study addresses the research question: How does the use of LLMs by students impact Informational and Procedural Justice, influencing Team Trust and Expected Team Performance? Methodically, we applied a quantitative construct-based survey, evaluated using techniques of Structural Equation Modelling (PLS- SEM) to examine potential relationships among these constructs. Our findings based on 23 valid respondents from Ndejje University indicate that lecturers are less concerned about the fairness of LLM use per se but are more focused on the transparency of student utilization, which significantly influences Team Trust positively. This research contributes to the global discourse on integrating and regulating LLMs and subsequent models in education. We propose that guidelines should support LLM use while enforcing transparency in Lecturer-Student- Collaboration to foster Team Trust and Performance. The study contributes valuable insights for shaping policies enabling ethical and transparent LLMs usage in education to ensure effectiveness of collaborative learning environments.
- Abstract(参考訳): 信頼は教育と研究の側面を包含するレクチュラー・学生協力において重要な役割を担っている。
Open AIのChatGPTのようなプラットフォームにおけるLarge Language Models(LLM)の出現と、コスト効率と高品質な結果が相まって、大学生の間で急速に採用されている。
しかし、LLM出力からの真正の学生入力を識別することは、講師にとって課題となる。
このジレンマは、講師と学生の信頼関係を危うくし、大学下流の活動、特に共同研究イニシアチブに影響を及ぼす可能性がある。
学生のLCM利用のガイドラインを確立する試みにもかかわらず、高等教育の講師や学生にとって相互に有益である明確な枠組みは、いまだ解明されていない。
学生によるLLMの使用は、情報と手続きの正義にどのように影響し、チーム信頼と期待されるチームパフォーマンスに影響を与えるか?
構造方程式モデリング(PLS-SEM)の手法を用いて定量的な構造構造ベースサーベイを適用し,それらの構造間の潜在的な関係について検討した。
本研究は,Ndejje大学の23名の正解者を対象に,LLM使用の公正さを意識せず,学生利用の透明性を重視し,チームトラストに有意な影響を与えていることを示す。
本研究は,LLMとその後の教育モデルの統合と規制に関する世界的談話に寄与する。
我々は,チーム信頼とパフォーマンスを育むために,学習者と学生の協力関係の透明性を高めつつ,LCMの使用を支援するガイドラインを提案する。
本研究は、教育における倫理的かつ透明なLCMの使用を可能とし、協調学習環境の有効性を確保するための政策形成に有用な知見を提供する。
関連論文リスト
- Position: LLMs Can be Good Tutors in Foreign Language Education [87.88557755407815]
我々は、外国語教育(FLE)において、大きな言語モデル(LLM)が効果的な家庭教師として機能する可能性を主張する。
具体的には、(1)データエンハンサーとして、(2)学習教材の作成や学生シミュレーションとして、(2)タスク予測器として、学習者の評価や学習経路の最適化に、(3)エージェントとして、そして、パーソナライズされた包括的教育を可能にする3つの重要な役割を果たせる。
論文 参考訳(メタデータ) (2025-02-08T06:48:49Z) - Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Quantitative Insights into Large Language Model Usage and Trust in Academia: An Empirical Study [27.7299835314702]
大規模言語モデル(LLM)は、多くの学術分野において、文章、読み、教え、知識検索を変革している。
使用状況の正確な定量化,アウトプットに対するユーザの信頼,デプロイメントの優先順位付けに要する重要な問題に関する懸念などが求められます。
本研究は, 私立R1研究大学の125名の個人を対象に, LLMの使用状況, LLMのアウトプットに対する信頼度, 学界におけるロバストな利用を優先する重要な課題について調査した。
論文 参考訳(メタデータ) (2024-09-13T20:45:50Z) - Insights from Social Shaping Theory: The Appropriation of Large Language Models in an Undergraduate Programming Course [0.9718746651638346]
大規模言語モデル(LLM)は、コードを生成、デバッグ、説明することができる。
本研究は,学生の社会的知覚が自身のLLM利用にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2024-06-10T16:40:14Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - Student Perspectives on Using a Large Language Model (LLM) for an Assignment on Professional Ethics [0.0]
LLM(Large Language Models)の出現は、カリキュラム、評価、学生の能力にどのような影響を与えるかについて、教育者の間で真剣な議論を始めた。
本報告では,コンピュータ・マスターの学生がキャリアに必要とする倫理に関する課題を含む,専門的能力のコース内での課題について述べる。
論文 参考訳(メタデータ) (2024-04-09T09:03:47Z) - Rethinking the Roles of Large Language Models in Chinese Grammatical
Error Correction [62.409807640887834]
中国語の文法的誤り訂正(CGEC)は、入力文中のすべての文法的誤りを修正することを目的としている。
CGECの修正器としてのLLMの性能は、課題の焦点が難しいため不満足なままである。
CGECタスクにおけるLCMの役割を再考し、CGECでよりよく活用し、探索できるようにした。
論文 参考訳(メタデータ) (2024-02-18T01:40:34Z) - Impact of Guidance and Interaction Strategies for LLM Use on Learner Performance and Perception [19.335003380399527]
大規模言語モデル(LLM)は、その教育的有用性を探求する研究の増加とともに、有望な道を提供する。
本研究は,LLM支援学習環境の形成において,教師が果たす役割を強調した。
論文 参考訳(メタデータ) (2023-10-13T01:21:52Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。