論文の概要: "The teachers are confused as well": A Multiple-Stakeholder Ethics
Discussion on Large Language Models in Computing Education
- arxiv url: http://arxiv.org/abs/2401.12453v1
- Date: Tue, 23 Jan 2024 02:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 17:07:25.512641
- Title: "The teachers are confused as well": A Multiple-Stakeholder Ethics
Discussion on Large Language Models in Computing Education
- Title(参考訳): 「先生も混乱している」--コンピュータ教育における大規模言語モデルに関するマルチテイクホルダー倫理論
- Authors: Kyrie Zhixuan Zhou, Zachary Kilhoffer, Madelyn Rose Sanfilippo, Ted
Underwood, Ece Gumusel, Mengyi Wei, Abhinav Choudhry, Jinjun Xiong
- Abstract要約: 大きな言語モデル(LLM)は急速に進歩し、人々の生活に良くも悪くも影響を与えています。
高等教育においては、学生のLDMの誤用や教育成果の低下といった懸念が浮かび上がっている。
我々は,高等教育コンピュータサイエンスにおける利害関係者インタビューのケーススタディを行った。
- 参考スコア(独自算出の注目度): 17.25008833760501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are advancing quickly and impacting people's
lives for better or worse. In higher education, concerns have emerged such as
students' misuse of LLMs and degraded education outcomes. To unpack the ethical
concerns of LLMs for higher education, we conducted a case study consisting of
stakeholder interviews (n=20) in higher education computer science. We found
that students use several distinct mental models to interact with LLMs - LLMs
serve as a tool for (a) writing, (b) coding, and (c) information retrieval,
which differ somewhat in ethical considerations. Students and teachers brought
up ethical issues that directly impact them, such as inaccurate LLM responses,
hallucinations, biases, privacy leakage, and academic integrity issues.
Participants emphasized the necessity of guidance and rules for the use of LLMs
in higher education, including teaching digital literacy, rethinking education,
and having cautious and contextual policies. We reflect on the ethical
challenges and propose solutions.
- Abstract(参考訳): 大規模言語モデル(llm)は急速に進歩し、人々の生活に悪影響を与えている。
高等教育においては、学生のLDMの誤用や教育成果の低下といった懸念が浮かび上がっている。
高等教育におけるLCMの倫理的関心を解き放つため,高等教育コンピュータサイエンスにおける利害関係者インタビュー(n=20)によるケーススタディを行った。
我々は、学生が複数の異なるメンタルモデルを使用してLLMと対話することを発見した。
(a)筆記
(b)コーディング,及び
(c)情報検索は倫理的考察において若干異なる。
学生や教師は、不正確なLSM反応、幻覚、偏見、プライバシー漏洩、学術的完全性問題など、彼らに直接的な影響を及ぼす倫理的な問題を提起した。
参加者は、デジタルリテラシーの教育、教育の再検討、慎重かつ文脈的な政策など、高等教育におけるllmの使用のための指導と規則の必要性を強調した。
倫理的課題を反映し、解決策を提案する。
関連論文リスト
- Analyzing LLM Usage in an Advanced Computing Class in India [1.6612806983579371]
既存の研究は主に、導入プログラミングの文脈における大規模言語モデル(LLM)の影響に焦点を当てている。
本研究は、先進的なコンピューティングコースにおいて、学生とLLM間の生の相互作用を包括的に分析する。
論文 参考訳(メタデータ) (2024-04-06T12:06:56Z) - Automate Knowledge Concept Tagging on Math Questions with LLMs [48.5585921817745]
知識概念のタグ付けは、現代の知的教育応用において重要な役割を担っている。
伝統的に、これらの注釈は教育専門家の助けを借りて手作業で行われてきた。
本稿では,Large Language Models (LLM) を用いたタグ付けタスクの自動化について検討する。
論文 参考訳(メタデータ) (2024-03-26T00:09:38Z) - When LLMs Meet Cunning Questions: A Fallacy Understanding Benchmark for
Large Language Models [62.42534500424585]
本稿では,人間が理解し易いが,理解し難い質問を含むファラッキー理解ベンチマークを提案する。
具体的には、FLUBが焦点を当てている不気味な質問は、主に、実際のインターネット環境から収集されたトリッキーでユーモラスで誤解を招く質問から成り立っている。
LLMの誤り理解能力を評価するために,FLUBベンチマークの難易度を高める3つのタスクを設計する。
論文 参考訳(メタデータ) (2024-02-16T22:12:53Z) - Rethinking Machine Unlearning for Large Language Models [87.85043572895296]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Challenges and Contributing Factors in the Utilization of Large Language
Models (LLMs) [10.039589841455136]
本稿では,大規模言語モデル (LLM) がニッチ分野における専門的な質問に対して正確な回答を提供するのに苦慮する領域特異性の問題について考察する。
トレーニングデータを多様化し、きめ細かいモデルを作成し、透明性と解釈可能性を高め、倫理と公正なトレーニングを取り入れることが推奨されている。
論文 参考訳(メタデータ) (2023-10-20T08:13:36Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Impact of Guidance and Interaction Strategies for LLM Use on Learner
Performance and Perception [20.167765961987662]
大規模言語モデル(LLM)は、その教育的有用性を探求する研究の増加とともに、有望な道を提供する。
本研究は,LLM支援学習環境の形成において,教師が果たす役割を強調した。
論文 参考訳(メタデータ) (2023-10-13T01:21:52Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z) - "With Great Power Comes Great Responsibility!": Student and Instructor
Perspectives on the influence of LLMs on Undergraduate Engineering Education [2.766654468164438]
LLM(Large Language Models)の人気が高まり、学術界で議論が巻き起こった。
本稿ではインドの大学工学部における調査とインタビューを行う。
学生1306名,学生インタビュー112名,インストラクターインタビュー27名を対象に,現在の利用パターンについて考察した。
論文 参考訳(メタデータ) (2023-09-19T15:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。