論文の概要: "The teachers are confused as well": A Multiple-Stakeholder Ethics
Discussion on Large Language Models in Computing Education
- arxiv url: http://arxiv.org/abs/2401.12453v1
- Date: Tue, 23 Jan 2024 02:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 17:07:25.512641
- Title: "The teachers are confused as well": A Multiple-Stakeholder Ethics
Discussion on Large Language Models in Computing Education
- Title(参考訳): 「先生も混乱している」--コンピュータ教育における大規模言語モデルに関するマルチテイクホルダー倫理論
- Authors: Kyrie Zhixuan Zhou, Zachary Kilhoffer, Madelyn Rose Sanfilippo, Ted
Underwood, Ece Gumusel, Mengyi Wei, Abhinav Choudhry, Jinjun Xiong
- Abstract要約: 大きな言語モデル(LLM)は急速に進歩し、人々の生活に良くも悪くも影響を与えています。
高等教育においては、学生のLDMの誤用や教育成果の低下といった懸念が浮かび上がっている。
我々は,高等教育コンピュータサイエンスにおける利害関係者インタビューのケーススタディを行った。
- 参考スコア(独自算出の注目度): 17.25008833760501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are advancing quickly and impacting people's
lives for better or worse. In higher education, concerns have emerged such as
students' misuse of LLMs and degraded education outcomes. To unpack the ethical
concerns of LLMs for higher education, we conducted a case study consisting of
stakeholder interviews (n=20) in higher education computer science. We found
that students use several distinct mental models to interact with LLMs - LLMs
serve as a tool for (a) writing, (b) coding, and (c) information retrieval,
which differ somewhat in ethical considerations. Students and teachers brought
up ethical issues that directly impact them, such as inaccurate LLM responses,
hallucinations, biases, privacy leakage, and academic integrity issues.
Participants emphasized the necessity of guidance and rules for the use of LLMs
in higher education, including teaching digital literacy, rethinking education,
and having cautious and contextual policies. We reflect on the ethical
challenges and propose solutions.
- Abstract(参考訳): 大規模言語モデル(llm)は急速に進歩し、人々の生活に悪影響を与えている。
高等教育においては、学生のLDMの誤用や教育成果の低下といった懸念が浮かび上がっている。
高等教育におけるLCMの倫理的関心を解き放つため,高等教育コンピュータサイエンスにおける利害関係者インタビュー(n=20)によるケーススタディを行った。
我々は、学生が複数の異なるメンタルモデルを使用してLLMと対話することを発見した。
(a)筆記
(b)コーディング,及び
(c)情報検索は倫理的考察において若干異なる。
学生や教師は、不正確なLSM反応、幻覚、偏見、プライバシー漏洩、学術的完全性問題など、彼らに直接的な影響を及ぼす倫理的な問題を提起した。
参加者は、デジタルリテラシーの教育、教育の再検討、慎重かつ文脈的な政策など、高等教育におけるllmの使用のための指導と規則の必要性を強調した。
倫理的課題を反映し、解決策を提案する。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - I don't trust you (anymore)! -- The effect of students' LLM use on Lecturer-Student-Trust in Higher Education [0.0]
Open AIのChatGPTのようなプラットフォームにおける大規模言語モデル(LLM)は、大学生の間で急速に採用されている。
学生によるLLMの使用は、情報と手続きの正義にどのように影響し、チーム信頼と期待されるチームパフォーマンスに影響を与えるか?
本研究は,LLM使用の公平さよりも,学生利用の透明性に重点を置いていることを示唆する。
論文 参考訳(メタデータ) (2024-06-21T05:35:57Z) - Insights from Social Shaping Theory: The Appropriation of Large Language Models in an Undergraduate Programming Course [0.9718746651638346]
大規模言語モデル(LLM)は、コードを生成、デバッグ、説明することができる。
本研究は,学生の社会的知覚が自身のLLM利用にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2024-06-10T16:40:14Z) - Student Perspectives on Using a Large Language Model (LLM) for an Assignment on Professional Ethics [0.0]
LLM(Large Language Models)の出現は、カリキュラム、評価、学生の能力にどのような影響を与えるかについて、教育者の間で真剣な議論を始めた。
本報告では,コンピュータ・マスターの学生がキャリアに必要とする倫理に関する課題を含む,専門的能力のコース内での課題について述べる。
論文 参考訳(メタデータ) (2024-04-09T09:03:47Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Challenges and Contributing Factors in the Utilization of Large Language
Models (LLMs) [10.039589841455136]
本稿では,大規模言語モデル (LLM) がニッチ分野における専門的な質問に対して正確な回答を提供するのに苦慮する領域特異性の問題について考察する。
トレーニングデータを多様化し、きめ細かいモデルを作成し、透明性と解釈可能性を高め、倫理と公正なトレーニングを取り入れることが推奨されている。
論文 参考訳(メタデータ) (2023-10-20T08:13:36Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - "With Great Power Comes Great Responsibility!": Student and Instructor
Perspectives on the influence of LLMs on Undergraduate Engineering Education [2.766654468164438]
LLM(Large Language Models)の人気が高まり、学術界で議論が巻き起こった。
本稿ではインドの大学工学部における調査とインタビューを行う。
学生1306名,学生インタビュー112名,インストラクターインタビュー27名を対象に,現在の利用パターンについて考察した。
論文 参考訳(メタデータ) (2023-09-19T15:29:12Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。